Pull to refresh

Comments 109

Просто закомитьте этот DDL, запустите сборку и наслаждайтесь обновленным объектом

И тут же отправляйтесь в путешествие по устранению ошибок компиляции в места, где использовалось старое имя поля (title), а также исправления названия поля в соответствующем dto объекте, если таковой есть. Вместо этого, можно было просто поменять название колонки в аннотации @Column(«book_title»). Наверное, это не совсем правильно, но иногда такое сильно проще и дешевле.

Вы так говорите как будто это плохо.
Лучше получить ошибку компиляции, чем "sql error" в рантайме.

Я не говорил, что это плохо, но за фразой «запустите… и наслаждайтесь» скрыто еще кое-что, о чем собственно и написал. И часто манипуляций по устранению ошибок много больше чем того, что решается автоматической кодогенерацией.
sql error в этом случае вылазит, как правило, уже при запуске (spring boot и т. п.) или деплое приложения на сервер и выявляется разработчиком. до продакшена такое приложение не дойдёт.
2018ый год. Время микросервисов с микроданными и распределённых баз без схемы, точнее со схемой на уровне кода сервисов. О какой кодогенерации тут говорить? Всё это уже давно стало легаси.
«Никогда такого не было — и вот опять». Уже тысячу раз обсуждалось: микросервисы нужны не всегда, не являются серебряной пулей и накладывают весьма значимые ограничения на систему.
А, кроме того, в них самих может запросто использоваться указанная выше кодогенерация. Почему нет, религия не против.
Я про то, что как только система сталкивается с нагрузкой, база тут же становится узким местом и уже становятся безраличны вопросы схемы-маппинга на её уровне. Работу с данными начинают разносить подальше от RDBMS и эти все вопросы становятся просто неактуальны. Т.е. актуальны, но в общем объёме работ по поддержанию системы в порядке — совершенно минорны.

Не всё так однозначно. И нагрузка разная бывает, и данные, и требования к их целостности, актуальности, и куча ещё всего.
Т.е. я понимаю, что реляционные БД в принципе не способны на бесконечное горизонтальное масштабирование, но внезапно может оказаться, что бесконечно и не надо.


Чтобы не быть голословным, есть такой сайтик популярный — stackoverflow.com. Так вот у него в сердце MS SQL Server. Пруф: https://nickcraver.com/blog/2016/02/17/stack-overflow-the-architecture-2016-edition


SQL не серебряная пуля, также как и noSQL. Каждому гвоздю свой молоток.

Именно. Обычно проекты, которые на MSSQL начинались примерно к такой архитектуре и приходят по мере роста нагрузки. Основным звеном становится кеш на NoSQL, а затем и многие данные туда мигрируют, оставляя в MSSQL только ядро. И заметьте, новые проекты делаются у него на ES, а не MSSQL. Понятно, транзакционные вещи на Nosql в трезвом уме делать не будут, но в реальности операций с такими требованиями совсем не так много в реальном мире.
Поиск-то всё равно идёт по Elastic Search, который вполне себе NoSQL db.

Так в статье же речь про single source of truth. Вполне себе нормальная история основные данные держать в одной базе, а для полнотекстового поиска выгружать в другую, сильно более заточенную на, собственно, полнотекстовый поиск.


Как там у SO это сделано я не знаю, но вообще, при большом желании Elastic можно дропнуть и перестроить, и сервис скорее всего в это время испытает gracefull degradation — из гуглового поиска попасть можно будет (а это думаю большая часть их трафика), а из внутреннего, пока индекс не перестроится — нет. Ну, а учитывая, что это что-то вроде ЧП, то в общем-то и не страшно сильно.

Вы хотите сказать, что нет никакой разницы, работает одна медленная штука или две медленных штуки, если вторая не медленнее первой?
вторая штука быстра и легко горизонтально маштабируется. первую штуку освобождают от нагрузки, перенося данные и нагрузку во вторую.
На счет распределенных баз без схемы — например те же самые популярные (или только набирающие популярность) Cassandra, ClickHouse и Cockroach вполне себе поддерживают настоящие схемы.

А микросервисная архитектура наоборот позволяет использовать каждую СУБД на всю катушку в изолированных сервисах.
Сервисы используют как правило какой-то субсет данных и привязка к схеме целиковой базы лишь уменьшает их жизненный цикл и усложняет разработку. Вообще эта архитектура — база наше всё и от неё и пляшем, уже ни один проект завела в болото.
«Архитектура — база наше всё и от неё и пляшем» — я тоже против такой архитектуры.

Статья (насколько я ее понимаю) немного о другом — изолировать использование конкретной СУБД в каком-нибудь изолированном слое или микросервисе и использовать все ее ништяки, которые она предоставляет.
Статья про то, что почему-то правильно начинать с БД, то есть хранения данных, а не с работы с ними, как будто основная задача — это хранить их, а не совершать над ними какие-то действия. Как по мне такой подход изрядно устарел…
«Устарел» — это не аргумент. Работает или нет, сколько ошибок, насколько легче рефакторить, как быстро разрабатывать — это аргументы.
А hype-driven development пусть идёт лесом.
«Устарел» в моем понимании значит «воспринимается практически, как догмат, хотя его давно пора переосмыслить». Я считаю, что в нынешних реалиях идея БД, как чуть ли не центрального звена, вокруг которого строится остальное приложение, себя изрядно изжила.
Я считаю, что в нынешних реалиях идея БД, как чуть ли не центрального звена, вокруг которого строится остальное приложение, себя изрядно изжила.


Согласен, но статья вроде этого и не утверждает.
Идея в том, что объектная модель живет и развивается отдельно, а модель БД отдельно, и где-то они встречаются.
но статья вроде этого и не утверждает.

Учитывая заголовок про «истину в последней инстанции» я бы не был так уверен :D
Не, ну это касается именно модели БД, не объектной
Генерация объектов по базе мало похожа на «где-то они встречаются». «Где-то они встречаются» — это классический подход DataMapper ORM типа Hibernate без использования средств генерации миграций по метаданным классов сущностей и ко. База живёт отдельно, объекты отдельно, а ORM маппит их друг на друга. Единственное, что в идеале произвольным образом, если он соотвествует критерям однозначности или допустимой многозначности, но на практике встречаются ограничения ORM, которая неспособна тонко тюнить схему конкретного движка СУБД или, например, неспособона замаппить коллекцию ValueObject на отдельную таблицу из-за чего приходится, например, ValueObject превращать в полноценную Enitty, как минимум «под капотом».
Вместо «Java[любой другой язык] first» подхода, который выведет вас на длинную дорожку, полную боли и страданий, как только проект начнет расти.

До чего категорично-то… А как насчет длинной дорожки танцев «от базы», которая в итоге приведет к тому, что приложение зависит от БД чуть более чем полностью, потому что изрядная часть логики переползла именно туда? Я не раз и не два наблюдал, как функционал, который начинался, как «select с обработкой» постепенно превращался сначала в «сложные select с триггерами с последующей обработкой», а потом и в «сложные select с триггерами и прочими джобами, а так же кучей хранимых процедур с последующей обработкой или даже без оной». После чего приложения вырождались по сути дела до гейтов к базе, в которой была сосредоточена вся логика. Естественно никто уже толком не понимал, как это все работает, и уж точно не мог нормально наращивать функционал. Вот такая по моему опыту цена проектирования «от базы».
Ну тут из крайности в крайность получается ) В статье про бизнес-логику на стороне БД ничего не сказано, только про эффективную схему (констрейнты, ключи, параметры хранения). В том же самом Oracle сухое описание оператора CREATE TABLE занимает 20 стр., другие БД тоже не сильно отстают. Так почему этим не пользоваться.
В статье не просто про схему, там как противопоставление подходу code-first, который якобы несет боль и страдание. Ну, так db-first несет не меньше боли, поскольку очень сложно танцуя «от схемы» не начать закладывать в эту схему логику. В том же Оракле у нас получалось примерно так — создадим схему, придумаем таблички, свяжем их ключами… А как проверить, что схема вышла удачной? Ну, селектом же. Вот уже появился первый селект, который выбирает данные, а то и несколько. Вы еще ни строчки кода не написали, а уже связаны неким контрактом, который был рожден учитывая только одни интересы — интересы БД, поскольку интересы кода никем представлены не были ввиду отсутствия такового. Не велика беда? Не велика. До тех пор, пока благодаря такому проектированию не случиться ситуация, когда «вот эту предобработку удобнее сделать на стороне БД, заведем пару триггеров на инсерт и апдейт...» — готово дело! У вас есть триггеры, а, скорее всего, еще и хранимка. И как теперь отвечать на вопрос «Как работает эта функциональность?» Правильный ответ — в болью, поскольку для нахождения ответа вы пойдете в код, размотаете его до какого-то уровня, ВНЕЗАПНО провалитесь в БД, где есть своя логика, размотаете ее, вернетесь в первый код… В моем случае весь этот психоз был накрыт еще web-частью, так что бутерброд получался совершенно не съедобным.
очень сложно танцуя «от схемы» не начать закладывать в эту схему логику


А как же архитектура, code review и все такое?
Розовые пони разбегаются после 5ти лет жизни любого проекта.
А что архитектура? В реальности «продумать логику еще на этапе создания схемы БД» большинству разработчиков и архитекторов покажется хорошей идеей, и не поможет пяток предыдущих проектов. Привычка — страшная сила, а «Oracle головного мозга» тем более.
Ну это уже какие-то психологические проблемы.
Если у человека «Oracle головного мозга» — то тут и «code first» не поможет, он все равно сможет делать всякие штуки на стороне БД (только еще более костыльнее).
из того что я наблюдал — при наборе некоторой критической массы (размера базы данных или размера критичных таблиц), все равно часть (да, не всё, но какие-то части) кода коротрый генерится ORM заменяется на хранимые процедуры. И я не вижу в этом вообще ничего плохого. Потому что код который был сгенерен ORM не использует все возможности диалекта SQL используемой СУБД, а частенько попросту паршив, просто это не чувствуется на малых данных.
ну и еще нанимают ДБА или SQL разработчика, потому что <подставьте язык сами> разрабочики плохо знают тонкости используемой на проекте СУБД, а бывает что и вовсе разучились SQL запросы писать.
Так что учитывать интересы базы рано или поздно придется, от этого никуда не уйти, но тут важно найти разумный компромис.
но тут важно найти разумный компромис

Скорее речь идет об изоляции. То есть программируя на объектно-ориентированных языках мы почему-то свято чтим наследование-инкапсуляция-полиморфизм, и инкапсулируем сложность «под капот», всеми силами обеспечиваем слабую связность. Но когда дело доходит до баз данных это внезапно куда-то пропадает, и становится совершенно нормальным размазать одну логическую единицу тонким слоем от кода и до хранимок в БД, вместе с триггерами и джобами. Я к тому, что я не фанатик, и совершенно не против того, что бы использовать мощь БД на полную, но делать это так, как это делается en masse — значит закладывать под фундамент своего приложения жирнющую мину. И данная статья такой подход мало того, что пропагандирует, так еще и называет «единственно верным».
Скорее речь идет об изоляции. То есть программируя на объектно-ориентированных языках мы почему-то свято чтим наследование-инкапсуляция-полиморфизм, и инкапсулируем сложность «под капот», всеми силами обеспечиваем слабую связность. Но когда дело доходит до баз данных это внезапно куда-то пропадает, и становится совершенно нормальным размазать одну логическую единицу тонким слоем от кода и до хранимок в БД, вместе с триггерами и джобами.

рискну предположить (хотя случаи могут быть разными) — все это размазывание было проведено в ходе N-го количества оптимизаций со стороны базы данных. Дело в том, что я многократно наблюдал как при написании логики в базе данных пытались использовать часть принципов ООП — оно все хорошо, красиво, удобно, проще поддерживать… НО, рано или позно приходят они… тормоза…
То ли это какой-то отчет использующий очень навороченую вьюху на все случаи жизни, в которой есть все что нужно и не нужно париться и особо мудрить. Или же это какая-то аггрегация которая использует функции для каких-то вычислений, в которые упрятанна с глаз долой забористая логика. И все, приехали, вариант один — разворачивать функции-вьюхи, выкидывать все ненужное, а все нужное писать так что бы было максимально быстро. вот после таких оптимизаций логика реализованая в БД может быть весьма тяжело читаемой.
Впрочем, причины могут быть и более тривиальные — в целях экономии времени в процедуру\функцию\триггер вставляют if else с нужным кодом, вместо того что бы переписать процедуру под новые требования. И со временем почти вся процедура слеплена из таких кусков, и без вдумчивого дебага уже непонять что там происходит. Но почему такое происходит не загадка — лень и дедлайны, на то что бы сделать по нормальному, а потом еще и провести хорошее тестирование может потребоваться слишком много времени. Справделивости ради стоит сказать что такое характерно и для ООПшных языков программирования.
В общем, возвращаясь к исходной точке — для БД либо шашечки, либо ехать (либо принципы ООП, либо скорость выполнения)
З.Ы. это моя ИМХА за 13 лет собраная на своем и опыте коллег
Все верно, только добавлю, что параллельно может происходить еще и наращивание функционала в коде сервера, примерно по тем же причинам. В итоге имеем ктулху-код в, например, java, ктулху-код а БД, и все это как бы один непрерывный кусок логики, разбираться в котором ну никак не из мечты.
Работаю в компании, где используется самописная ORM. Ну за основу был взят довольно древний проект под названием Quasar. И мы генерируем схему из классов с аннотациями похоже, как в Hibernate. Т.е. у нас code first. Перед стартом система сравнивает схемы — что у нас в БД и что в классах и делает апдейт базы данных при необходимости. Есть механизм, где можно сделать дополнительные действия при обновлении схемы — копирование/переформатирование данных. Действия накапливаются, т.е. можно сделать обновление с перескоком через несколько версий. Используется это все в разных продуктах, которые состоят из модулей и разные комбинации модулей могут приводить к разным схемам БД — поскольку там разные наборы объектов. Ну и поддерживается Oracle, MS SQL и Sybase. И я бы сказал что работает это при таком разнообразии практически без проблем. Я не в качестве рекламы это пишу. Поскольку мы эту ORM никому не продаем. Но code first тоже может замечательно работать.
Ну и поддерживается Oracle, MS SQL и Sybase

Т.е. поддерживается только какая-та общая функциональность всех этих СУБД? (Без специфичных опций каждой СУБД)
Да где то так. Ну подобные, но отличающиеся в деталях вещи поддерживаются, через разные реализации. Но если что-то уникальное для одной СУБД и не существует в других, то конечно нет.
ORM обычно проецируют записи базы данных на объекты, представляющие сущности предметной области. При таком подходе, похоже, толком бизнес-логику в эти объекты не поместить. То есть объектная сторона маппинга будет являться не полноценными сущностями а какими-то DTO и для использования полноценных сущностей нам будет нужен Object Object Mapper, который будет на основе DTO из ORM создавать сущности и наоборот. Я правильно понимаю?
Я когда-то прочитал книгу Java BluePrints от Sun (был даже перевод на русский язык) в которой был специальный раздел посвященный DAO и там дается понимание такого объекта скорее как прослойки между базой данных и бизнес-логикой с рекомендацией не делать эти объекты слишком тяжелыми. Я этой логике стараюсь следовать и добавляю в эти объекты методы которые делают примерно то что делают триггеры и constraint на стороне базы данных. То есть по минимуму.
Вот, да, напомнили название паттерна DAO. То есть по сути всю мощь ORM типа Hibernate со всеми их DataMapper, IdentityMap, UnitOfWork и т. п. предлагается использовать для довольно простого DAO, а также вводить дополнительный маппинг с DAO на сущности предметной области или отказаться от использования сущностей, перенося бизнес-логику в сервисы, очень часто нарушая присущую предметной области инкапсуляцию сущностей.
У подхода DB-first есть недостаток: нельзя создавать произвольные типы и добавлять в них произвольные свойства (например права доступа для разных групп, валидации и сообщения об ошибках, имена на разных языках для отображения на форме, и т.п.) Поэтому последнее время использую подход, котрый можно назвать Structure first: свойства полей и структуры таблиц описаны в json-файле, на основании которого самописный скрипт генерирует код на разных языках (SQL, PHP, Typescript, etc). Основная идея состоит в том, чтобы если надо добавить какое-то поле в таблице, то делается это один раз в json-файле, а скрипт создает все базовые структуры данных и абстрактные классы default-форм, которые потом кастомизируются наследованием.
Возможно вам стоит взглянуть на liquibase.
Если кто-нибудь может рассказать о проблемах миграции изменений в code first решениях — расскройте пожалуйста, что же автор имел ввиду?
Я не понимаю как ситуация принципиально ухудшается при использовании ORM ведь всегда можно изменения внести в production и ручным способом (как в database first). У тебя же никто не забирает любимый мячик, а просто еще один подкидывают (сгенерированные миграции для простых случаев).
Я как раз чуть ниже сделал комментарий о том что есть удобные инструменты для автогенерирования миграций. Я знаю php/symfony/doctrine. Но к сожалению по своему удобству я ничего не могу найти под node.js. То есть проблем нет если есть хороший инструмент такой как docrtine
Вероятно, имеются в виду инструменты миграций, который позволяют генерировать или создавать только миграции, довольно сильно абстрагирующиеся от конкретного движка SQL и не позволяющие добавлять в них произвольный SQL. С ними для поддержания целостности нужно использовать ещё один механизм миграций (ручным способом в CI/CD практиках делать ничего нельзя обычно) и синхронизировать их между собой, что больно. Или отказываться от автогенерации в принципе и все миграции делать не штатным механизмом ORM, а более низкоуровневым, оставляя на себе ручную синхронизацию метаданных ORM и схемы, что тоже не очень приятно.
Идея database-first в самом общем смысле очень мне нравится. Встречался со случаями когда раработчики сразу начинают «мыслить объектами». В результате чего полученная схема базы данных не выдерживает никакой критики. Тут уже могут быть варианты или сначала разработать структуру и потом перевести ее в объектную схему или же продолжать «мыслить объектами» но параллельно подверять какую структуру базы данных это будет генерировать.

По кодогенерации сам пользуюсь php / symfony / doctrine. Очень удобно делать миграции. Т.к. сравнивается текущая структура базы данных и генерируется код который из текущей струткуры преобразует в нужноую структуру. Кстати был (и есть) у меня один проект который разработчики начали базу менять без автогенерируемых миграций и на тот момент кодга я это проект принял база уже в нескольких объектах разошлась с кодом. (В основном оставались лишние поля и таблицы) После этого првел все один раз в порядок и пользуюсь только автогенерируемыми миграциями.

Но например я не знаю аналогичной функциональности для node.js. Аналогично я как понял из статьи что аналогичного функционала нет и в java ORM-ках.
При мышлении объектами, эти объекты никак не должны влиять на схему данных в базе при использовании DataMapper паттерна. Увы, та же Doctrine не позволяет малой кровью маппить некоторые распространенные схемы типа наличия у сущности поля, содержащего значение, являющееся коллекцией ValueObject на неподдерживаемые схемы типа отдельную таблицу для таких ValueObject, да даже простого хранения ValueObject в отдельной таблице, только встраивание, да и то с ограничениями на, например, null значения. А если пойти путём доработки маппинга Doctrine (есть возможности расширения), то теряем возможность автогенерации, надо, как минимум, её дорабатывать, а с ней ещё больше проблем может вылезти, в частности github.com/doctrine/dbal/issues/1110 — больше трех лет висит и только несколько дней назад вроде появился PR, решающий проблему. Ну и ручной маппинг остаётся, но врядли кто будет писать для него полноценные миграции.

А если пойти путём доработки маппинга Doctrine (есть возможности расширения), то теряем возможность автогенерации


Все записит от того как дорабатывать маппинг. Например когда мне потребовались json документы то я заюзал github.com/dunglas/doctrine-json-odm Все ралидовант там так что автогенерация работет правильно (даже не могу понять почему т.к. код бандла очень лаконичный и не имеет прямого выхода на генерацию SQL видимо автор очень удачно использовал какие-то умолчания действующие в doctrine)
Аналогично я как понял из статьи что аналогичного функционала нет и в java ORM-ках.


Почему же, Hibernate умеет.

Еще есть всякие интересные штуки (https://github.com/perseas/Pyrseas и github.com/CourseOrchestra/2bass), которые позволяют выгрузить в какой либо формат, подправить там что нужно, а потом эта штука найдет изменения и сгенерит нужные alter'ы.
Собственно Doctrine 2 можно назвать портом Hibernate на PHP.
Я не знаю насколько удобны эти средства в hibernate и знаю что ниего подобного нет к сожалению под node.js. Я просто расскажу почему это удобно в doctrine
1. Вы изменяете программный код Entity
2. Вы запускаете консольную команду которая генерирует скрипт с двумя функциями up() и down() сравнивая вашу текущую реальную базу данных с Entity
3. Вы по желанию добавляете дополнительно свой код (например задаете значения для добавленных полей и т.п.)
4. Вы при деплое запускаете скрипт миграции
5. Скрипт запускает все текущие миграции в порядке их определения. И следит чтобы это сделано было ровно один раз.
6. Также можно откатить миграцию.

То есть вопрос не в том что механизм миграций есть, а в том что он надежный и удобный. Если бы я не был уверен в каком-то из шагов что он пройдет без проблем я бы не рискнул пользоваться встроенными средствами.

Я не утверждаю что этого нет нигде больше. Я просто хочу показать в каких случаях это действительно бывает удобно. Я например сейчас в процессе поиска чего-то подобного на Go и если кто-нибудь значет где модно найти подобный встроенный функционал то прошу подсказать.

WARNING: AutoMigrate will ONLY create tables, missing columns and missing indexes, and WON’T change existing column’s type or delete unused columns to protect your data.


Вот например доки к GORM. И в чем тут прикол? Что вам фреймверк перестроит схему ничего не гарантируя и н давая контролль над процессом
Я достаточно много работал с Doctrine. Увы, этот флоу годится только для простейших случаев. И за сгенерированными миграциями нужен глаз да глаз. тут уже кидал ссылку на issue 2015-года, который ещё не закрыт — каждую миграцию приходилось «чистить» вручную из-за того, что доктрина не могла корректно сравнить текущую схему и схему из метаданных в PostgreSQL и на каждую генерацию упорно добавляла CREATE SCHEMA public, а на откат DROP.

Ну и в целом при работе с Doctrine нельзя просто забыть, что под капотом СУБД. Нужно помнить и о СУБД, и о самой Doctrine. И о том, что Doctrine не позволяет описать точную схему целевой БД. А иногда настойчиво мешает, пытаясь удалять то, что она не видит в своем описании, но что нужно нам, и наоборот.
Тут уже вопрос такой. Если я пользуюсь doctrine то полагаюсь на ее внутренние механизмы и не добавляю ничего не предусмотренного (А там есть многое из необходимого. Например, те же переводы, работа с датами). Если мне чего-то не хватало в доктрине то я искал бандл который дополняет эту функциональность.
«Лишние» миграционные скрипты у меня тоже когда я принял проект были. Потом посмотрел почему этот код появлялся. В некоторых случаях просто добавил нужную аннотацию в Entity. В некоторых случаях рабобрался что та таблица которую предлоагали удалить дйствительно нигде не исползуется ( и к том же была пустая). Но если уже перезодить на «ручное управление» — то тогда все преимущества превращаются в недостатки. Т.к. где-то появилось напрмер очень важное но отсутсвующее в Entity поле и ничего не ведающий человек которому получили таск очередной раз забудет закомментировать удаление этого поля в миграции. Ничего зхорошего. Одни только траблы.
1) как минимум есть зафиксированные баги без подходящих в конкретной ситуации путей обхода и на один из них мы попали. Пытались исправить, но через несколько дней даже оценки не было сколько ещё времени понадобится.

2) речь прежде всего не о полном ручном управлении, а о полноценном ревью сгенерированных миграций и создания своих миграций, тюнящих схему вне возможностей доктрины.

Подход DB first имеет смысл применять, по-моему, только если изначально понятно, что проект потребует очень много низкоуровневой работы с СУБД или у БД будет несколько логических владельцев, каждый из которых будет кроить схему под свои нужды и нужно будет синхронизировать объектные или подобные модели между владельцами.

В остальных случаях это будет преждевременная оптимизация, преждевременное решение потенциальных проблем. Когда подобные проблемы появятся, тогда и надо будет думать о путях их решения, в том числе как один из вариантов переход на DB first подход для владельцев, переход на единого владельца схемы БД — не обязательно, кстати, владельцем базы должна быть сама база или отдельный проект, можно взять одного из существующих владельцев, сделав его авторитарным для остальных, заставляя N-1 клиентов СУБД синхронизироваться с 1 клиентом явно или через внесённые им изменения в схему, или вообще запретив им работать с базой, а только с API единственного владельца. Всяко лучше, чем синхронизация «всех-со-всеми», даже когда только 2-3 владельца появляются.
проблемы с code-first это перформанс базы если она не оптимально згенерилась, но база обычно скейлиться дешевле чем потраченное время на разработку кода который лишь отдалённо соответствует бизнес логике, а для новичков время вживания в проект может сильно затянуться и будет жопа если основные девелоперы вдруг решат уйти на другую работу, вроде спека бизнес логики есть, а что и почему так мапиться хрен разберёшь

База обычно скейлиться дешевле? Весьма смелое утверждение.
Для кода практически всегда есть опция запустить несколько экземпляров, спрятать их за какой-нибудь фасад, вроде балансировщика и писать/читать в одну базу. А вот что делать, если вертикальный предел по железу достигнут, а производительности хранилища по-прежнему не хватает — это большой-большой вопрос.
И если в случае с какой-нибудь монгой еще остаётся пространство для манёвра, то что делать, если датасет из сильно реляционных данных не входит — не очень понятно.

репликация, шардинг, использование совершенно другой технологии для хранения данных, вообщем куча способов повысить производительность, некоторые очень просто сделать некоторые чуть сложнее, что все так бояться скейлить базу я не пойму, ведь это должно быть заложено в архитектуре проекта, возможность расширяться и переезжать на другие технологии, а не затачивать весь проект под конкретное решение, разве нет?
что все так бояться скейлить базу я не пойму, ведь это должно быть заложено в архитектуре проекта, возможность расширяться и переезжать на другие технологии, а не затачивать весь проект под конкретное решение, разве нет?


Не поспоришь, но много БД были спроектированы и разработаны десятки лет назад, когда всех этих модных слов еще не было (а если были, то не так широко распространены как сейчас). А данные в таких БД составляют оргомную ценность. Вот и приходится работать с такими динозаврами.
> База обычно скейлиться дешевле? Весьма смелое утверждение.

Сильно зависит от предметной области, бизнес-задач и ограничений, а так же от уровня протечки абстракций над базой данных в слой модели предметной области. Скажем, есть много задач, где легко скейлить чтение путем простой асинхронной master-slave репликации.
Я полностю согласен с автором статти. Я само хотел написать что-то похожее, но изложение мислей не мой конек. Возможно когда ви проектируете игру — база даних и не стоит на первом месте. Но даже в етом случае если начать проектировать с БД можнополучить профит. Но если ви проектируете програму для бизнеса — итог ее работи практически всегда должен бить: коректние, согласование дание в БД.
Можно получить профит и если сначала проектировать решение нужных пользователю или бизнесу задач, а лишь потом прикручивать базу для хранения данных, необходимых для решения этих задач. Обычно «записать данные в базу» или «прочитать данные из базы» не является задачей ни пользователя, ни бизнеса, они о ней знать не знают, если им не втюхавали какой-нибудь Оракл. База для них инкапсулированная деталь реализации, то есть не существует.

Если заведомо не известно, что задача потребует очень больших скоростей записи и чтения данных, их поиска и агрегации, с которыми без БД не справиться за разумное время, и то каждый байт в схеме должен быть максимально оптимизирован, то начинать проектировать с БД очень похоже на попытку преждевременной оптимизации.

P.S. Что будут меняться бизнес-требования к разработке — это практически аксиома, что будут проблемы из за не того начала разработки, в частности от бизнес-задач, а не от базы данных — это ещё бабушка надвое сказала.
Я и не спорю. Сначала бизнес-задача, ТЗ. Так и стаття о том как проектировать програму, а не решать бизнес задачу. Ето уже подразумевает наличие ТЗ в том или ином виде.
Если заведомо не известно, что задача потребует очень больших скоростей записи и чтения данных, их поиска и агрегации, с которыми без БД не справиться за разумное время, и то каждый байт в схеме должен быть максимально оптимизирован, то начинать проектировать с БД очень похоже на попытку преждевременной оптимизации.

Вот так и рождаются програмы с которими работать не возможно. Я обясню что я имею ввиду, говоря правильная програма: Откритие журналов -до 3 с, отркритие документа до 2 с, Отчети до 5с (в некоторих очень редких случаях до 40с иначе регулярние отчеты и OLAP). И неважно что у вас несколько лет в БД, в таблицах милиарды строк и размер в терабайтах.
Приступая к разработке задачи ви должни четко понимать какой обем может быть через год и через 5 лет с учотом роста компании. И здесь нет преждевременной оптимизации, Разници в скорости проектирования модели в БД или JAVA\C#\… нет в принципе. Ибо нужно проектировать структуру учитивая возможние изменения ТЗ, и разширение БЛ.
И как уже говорилось — сгенерировать клас на основании обекта БД проще-простого.
Здесь беда в другом сейчас слишком много разработчиков и груп разработчиков, которие вообще не хотят заморачиватся елементарними знаниями БД. И считают что програма должна бить БД независимая. И ето чуть ли не ее главная фича.

P.S. И да, я старовер. Я не люблю ORM, ибо не представляю что под капотом, и что он сгенерит, и я считаю что реализация бизнес логики на БД наиболее правильное место(самое ефективное). Приетом скорость разработки и скорость работи више.
Вот вам аргументи
1) Поддерка целосности на БД делается елементарно.
2) БД неплохо так паралелит задачи.
3) БД (Оракл) имет так званий result cache для запросов и функций, которий отслеживает изменения таблиц и всегда видает достоверний результат. При етом доступно всем пользователям. Я даже не представляю сколько нужно потратисть усилий чтоб достичь такого результата самостоятельно.
4) Ну и в Pl/sql есть возможнось компиляции в нативний код.
Из минусов только GUI для C#/JAVA покруче и тесты писать сложнее. Отладка кода на БД ничем не хуже/сложнее чем в VS.

Отладка кода на БД ничем не хуже/сложнее чем в VS.

А какой отладчик PL/SQL нормально показывает коллекции? plsqlDeveloper не умел, когда я держал его в последний раз.
Да целую колекцию не посмотриш. Только елемент. Даже FIRST елемент не покажет.
Етому есть наверное логичное обеснение.
Согласен. отладка в VS намного удобнее и мощнее.
С етим пунктом я ввел в заблуждение. Можно сказать что отладка присутствует но ограничена.
Да целую колекцию не посмотриш. Только елемент

Ну, вот и закончился миф «Отладка кода на БД ничем не хуже/сложнее чем в VS» не успев начаться.

Можно сказать что отладка присутствует но ограничена.

Сразу вспомним, что в случае Оракла с его pl/sql мы еще на уровне БД имеем сплав двух языков — императивного pl/sql и декларативного sql, при этом худо-бедно дебажится только первый, дебага sql не предполагается. Все это мягко намекает, что утверждение
реализация бизнес логики на БД наиболее правильное место

несколько сомнительно.
декларативного sql
дебага sql не предполагается

У меня даже теоретической идеи нет как можно дебажить декларативний язык.
План запроса ето и есть, как по мне, его дебаг. И чуть ли не базис скорости работы.
реализация бизнес логики на БД наиболее правильное место

несколько сомнительно.


Я даже скажу больше очень немодно. :) и ета мысль часто жостко минусуется на хабре. Но тем неменее, в целом код написаний на ХП короче аналогичного JAVA\C# значить проще тестится. Проще поддерживается, В случае простых изменений не требует переинстеляции на клиенских машинах. Значит изменения можно внедрять быстрее.
И как я уже писал ниже я не агетирую за БЛ на ХП я агитирую Что выбор Базы и знание нюансов не менне важен за выбор язика програмирования. А по большому счету даже важнее.
У меня даже теоретической идеи нет как можно дебажить декларативний язык.
План запроса ето и есть, как по мне, его дебаг. И чуть ли не базис скорости работы.

Речь шла про удобство и ограниченность дебага. Ну, вот оно, ограничение — прямо на дебаге понять почему тормозит запрос невозможно.

Но тем неменее, в целом код написаний на ХП короче аналогичного JAVA\C# значить проще тестится

*глядит в портянки pl/sql, потом в свой уютненький java-код* Ээээ… Ладно, проехали :D

выбор Базы и знание нюансов не менне важен за выбор язика програмирования.

С этим никто спорить и не думал.
Речь шла про удобство и ограниченность дебага. Ну, вот оно, ограничение — прямо на дебаге понять почему тормозит запрос невозможно.

Никогда в таком русле не думал. Всегда смотрел план отдельно в Тоде там ето получше сделано. Согласен прям в дебагере — удобнее.
Я согласен — дебаг и GUI похуже Студии еклипса и тд.
*глядит в портянки pl/sql, потом в свой уютненький java-код* Ээээ… Ладно, проехали :D

В девелопере достаточно удобная навигация по коду. Ну а портянки ето уже стиль :) а не маст хев. Но ето уже кому что глазу мелее. Мне например не нравится в JAVA\C# многословие в описаниях класа (public, і тд.). Спасибо хотя б в JAVA var добавили :) Наследование, интерфейси итд часто отвлекают от сути, и получается что обертка становится важнее сути. Не подумайте что я не люблю ООП. Я очень любил с++, Сейчас пишу на c#. Но заглянув в grid(C#), я больше не задавался вопросом почему он такой тормознутый. Мне кажется что ето уже слишком. Я понимаю что там все красиво, канонически. Но работать бысто ето не может… Да Я не знаю как сделать так же уневерсально и быстро. Наверно ето и невозможно. Поетому и появлялись пачками самописние grid. Но ето уже другая история.
многословие в описаниях класа (public, і тд.).

То есть public — это многословно, а разделение pl/sql пакета на спеку и тело, в которых код практически дублируется — это не многословно? :D А куча begin'ов и end'ов вместо скобок? Код на pl/sql совсем не лаконичный. Кстати, с появлением в java'е стримов перебирать коллекции стало одно удовольствие.
Но тем неменее, в целом код написаний на ХП короче аналогичного JAVA\C#

А можно пример?) А лучше парочку.

Какая информация на хабре проскакивала несколько раз в холиваре БЛ БД или вне БД.
Мы все ето вместе можем легко проверить. Вы предлагаете сценарий БЛ и реализацию JAVA\С#. Я код PL\sql. Желательно что то посложнее, ибо 90% логики можно реализовать оператором (select\merge\update\insert) или их групой. Но сразу оговорим, что задача должна включать многопользовательский режим, и возможность совмесной работы и контроль прав ограничения на даные.
Я правильно понял, что данный кусок кода должен включать И работу с данными, И «многопользовательский режим», что бы это ни значило, И контроль прав? Эту шутка такая? Три совершенно разные обязанности в одном куске кода могут встретиться только в виде обращений к трем нижележащим подсистемам реализующим эти обязанности, то есть в виде:
checkRight();
result = getData();
Мы уже дискутировали с michael_vostrikov по поводу БЛ в БД, я ему на простейшем примере показал насколько код в БД работает быстрее и насколько он проще
habr.com/post/312134/#comment_9853420

И это всего лишь одно место. А так вся программа как комплекс может работать в десятки раз быстрее, если она реализована в БД, прекрасно масштабироваться и не требовать скалинга очень долгое время.
насколько код в БД работает быстрее

Что значит «быстрее»? В контексте всего приложения может запросто получиться так, что имея локальный максимум производительности в БД вы в итоге получите глобальный минимум, поскольку бутылочным горлом станет коннект к БД.

А так вся программа как комплекс может работать в десятки раз быстрее, если она реализована в БД

Это ровно до тех пор, пока вся задача программы замыкается на данных из БД. То есть пока это «вещь в себе», к которой изредка кто-то обращается снаружи и просит дать кусочек результата работы — да, будет быстро и не напряжно. Все сломается об колено, как только появится потребность взаимодействовать с внешним миром, забирая оттуда данные, и совершая над ними действия, которые плохо ложаться в термины БД. Как на хранимках написать логику: «пойди к менеджеру ресурсов, возьми у него адрес актуального на данный момент поставщика данных, сходи к поставщику, запроси по websocket соединение, подпишись на такое-то событие, и жди его наступления в течение пяти секунд, после чего обработай полученные данные и сообщи, что они получены. Если за 5 секунд событие не наступило, то тихо закрой коннект и… ну, и так далее». Я, конечно, представляю, что все это можно реализовать через Аляску, с маппингом всего и вся в таблички, но поддерживать и развивать ЭТО будет невозможно.
Как на хранимках написать логику: «пойди к менеджеру ресурсов, возьми у него адрес актуального на данный момент поставщика данных, сходи к поставщику, запроси по websocket соединение, подпишись на такое-то событие, и жди его наступления в течение пяти секунд, после чего обработай полученные данные и сообщи, что они получены. Если за 5 секунд событие не наступило, то тихо закрой коннект и… ну, и так далее».

В Оракле всякую экзотику, которой в приложении не более 5%, типа вебсокетов, можно написать на java, а обработку данных сам бог велел делать на SQL и PL/SQL
Откуда данные про 5%? Это выдавание желаемого за действительное — вся эта «экзотика» может занимать изрядную долю приложения.

можно написать на java, а обработку данных сам бог велел делать на SQL и PL/SQL

А почему бы не пойти дальше, и не написать на той же java за пределами Оракла? Нагружать сервер базы данных еще и работой jvm? Зачем? И чем вы будете пользоваться в «java over oracle» для менеджмента соединений? Куда будете логгировать? Все туда же, на сервер базы данных? А зачем себя так не любить, если можно взять Spring Boot, который замечательно запустится на соседнем сервере и не будет нагружать БД? Сделав этот первый логический шаг совершенно внезапно оказывается, что в java есть стримы, которые замечательно реализуют перебор коллекций, то есть то, что до сих пор делал pl/sql. Вот и БЛ переехала из хранилища данных поближе к внешним запросам от пользователей, что логично. Ну, и так далее… Это эволюция, времена, когда сервера приложений были дорогим и сложным удовольствием, а pl/sql и иже с ним простым и дешевым, прошли и теперь можно вернуть БД изначальное значение — хранить данные, поскольку для их лобработки уже есть более удобные средства.
Только когда всё это начинает тормозить, то выясняется что обработка данных на сервере, там где они хранятся, гораздо быстрее и логика опять переползает в БД или начинается горизонтальный скалинг и монструозная инфраструктура с балансировщиками нагрузки, на поддержку которой тратиться неимоверное количество ресурсов.
Почему оно должно тормозить? БД сама по себе нагружает сервер, в то время, как голое Spring Boot приложение жрет около 15 мегабайт оперативки и 0 процессора. Запущенное на железе сопоставимом с сервером БД тормозить оно начнет весьма и весьма не скоро. Гораздо чаще мне попадались случаи, когда запросы вставали в очередь к БД и ждали, пока там раскочегарится pl/sql, поворочает данными, и таки уже вернет пару значений.
Извините, но вы не показали. Ни что проще, так как я не стал на ORM переписывать, так как разговор был про производительность, ни что быстрее, так как я добавил стороннее кэширование, что с базой сделать проблематично. Я тот репозиторий уже удалил, но если интересно, могу переписать на ORM, и сравним читаемость.
Кеширование это лишние костыли которые, как я писал, могут привезти к ошибкам, которые даже юнит тестами не покроешь.
А в Оракле прекрасно кешируются данные RESULT_CACHE или MATERIALIZED VIEW в концепции которых нет места изменениям кода бизнес логики, а значит самым критичным будет сломанный кеш, а не сломанные данные.
Кеширование это лишние костыли которые, как я писал, могут привезти к ошибкам, которые даже юнит тестами не покроешь.

Кеширование — это не костыль, а потребность. Правильно выбранный кэш решает кучу проблем. К примеру hazelcast нам дает не просто кэш, но распределенный кэш. И это прекрасно!
решать-то проблемы он может и решает, но этих проблем может и не возникнуть когда у вас приложение и без кеша работает прекрасно. И вместо того чтобы тратить время и ресурсы на поддержание логики кеша, Вы тратите время на разработку приложения.
Скажу честно, на поддержание работы хазелькаста у меня уходит ресурсов в разы меньше, чем уходило на поддержание схемы БД. Собственно когда окончательно достало, то OracleXE, который мы чисто по привычке вклячили в приложение, был выкинут нахрен, данные переведены в json и складированы в редиску, откуда забираются в хазелькаст, откуда уже заходят в код. С тех пор в моей душе мир и покой, поскольку хранение данных стало для меня прозрачным, понятным, а главное не требующим внимания. Понимаю, что мой случай не показатель, все же данных у меня, как таковых, не много — тысячи и десятки тысяч записей, а не миллионы и миллиарды, но, сдается мне, почти все приложения именно таковы…
Рад за Вас. А как в этой связке ACID? Просто не знаком ни с Redis, ни с хазелькастом.
А как в этой связке ACID?

Да так же, как везде — работает, пока не случается какой-нибудь вывернутый случай :D Если серьезно, то, к примеру, если мне нужно изменить какую-то сущность, то я вынимаю ее из hz, лочу, что б никто в параллельном потоке в это время мне не мог помешать, меняю все, что надо, укладываю обратно в hz. Разлочиваю. На всякий случай лок сам снимется через, к примеру, 500 миллисекунд, мало ли что-то встало колом. Как-то так. Нужно проапдейтить разом несколько сущностей — сначала лочу их все, потом все разлочиваю. try{}finally{} тут помогает. А редиска тут только для персистинга, на случай полного выключения сервера — где-то же данные нужно хранить долговременно…
А как с согласованностью на чтение? Например, я открыл цикл по данным за вчерашний день, прочитал 1ю строчку, в этот момент кто-то изменил 2ю строчку. Мой цикл извлечёт значение на момент старта цикла или уже изменившееся?
Итерирование будет происходить по тому результату, который вернула вам операция чтения. Если изменение произошло после этого, то вы его увидите только перечитав данные. Что, как мне кажется, логично.
Ну условно пример, задача посчитать бух баланс предприятия, который должен быть равен 0. Делаем запрос по всем счетам и суммируем все проводки. Оракл гарантирует, сколько бы долго не выполнялся запрос, что данные будут согласованными и транзакции на изменение данных, которые были выполнены после запуска запроса, не повлияют на результаты запроса, более того извлечение данных в версионных СУБД не блокируют модификацию данных.
А я так и вижу логику приложения на Java, написана функция для получения суммы проводок по счёту. Далее открываем цикл по счетам и получаем этой функцией сумму по счёту, потестировали, суммируем всё хорошо, кинули в продакшн. Потом показывают отчёт где баланс не сходится. Потому что в многопользовательской системе пока в цикле мы посчитали первый и второй счёт, а вторая сессия уменьшила сумму первого и увеличила сумму третьего. Изменения 3го счёта попадут в отчёт, а 1го не попадут. Приходим к выводу что на время выполнения отчёта надо блокировать всё и запрещать модификацию данных.
Приходим к выводу что на время выполнения отчёта надо блокировать всё и запрещать модификацию данных.

Нет, не так. В вашей логике вы строите отчет по тем же данным, которые кто-то меняет, а это не так. Вы атомарно получили данные, у вас есть датасет, и вы по нему строите отчет никому не мешая и вам никто не мешает.

В конце-концов речь идет о продакшн-реди инструменте, который показал себя на больших проектах, хотя бы у Яндекса: habr.com/company/yamoney/blog/332462
Нет, не так. В вашей логике вы строите отчет по тем же данным, которые кто-то меняет, а это не так. Вы атомарно получили данные, у вас есть датасет, и вы по нему строите отчет никому не мешая и вам никто не мешает.

Что-то я не понимаю… т.е. сначала заблокировать всю базу, извлечь ВСЕ данные из БД, т.к. я могу не знать какие данные мне понадобиться, разблокировать БД, а потом уже строить отчёт по извлечённым данным…

Я хочу сказать что, запрос
SELECT УИД
, CASE
   WHEN GROUPING(НАИМЕНОВАНИЕ) = 1 THEN 'Итого:'
   ELSE НАИМЕНОВАНИЕ
  END НАИМЕНОВАНИЕ
, SUM(ОПР_СУММУ_БУХГАЛТЕСКОГО_СЧЁТА(УИД)) СУММА
FROM БУХ_СЧЕТА
GROUP BY ROLLUP ((УИД, НАИМЕНОВАНИЕ))

в Оракле всегда даст ожидаемый результат, а если функцию ОПР_СУММУ_БУХГАЛТЕСКОГО_СЧЁТА написать на java, которая может оперирует данными из 100 таблиц, то пока мы не заблокируем все эти таблицы на момент исполнения, то мы не добьёмся согласованных данных и в строчке «Итого:» мы можем получать неожиданные данные.
Что-то я не понимаю… т.е. сначала заблокировать всю базу, извлечь ВСЕ данные из БД, т.к. я могу не знать какие данные мне понадобиться, разблокировать БД, а потом уже строить отчёт по извлечённым данным…

Зачем что-то блокировать на чтение? За тебя все сделает хазелькаст ровно так же, как делает Оракл. Блокировать что-то нужно на изменение. В общем очевидно, что я могу только отправить к документации.

Кстати, ситуация когда «т.к. я могу не знать какие данные мне понадобиться» явно показывает, что что-то ты делаешь не так…
Кстати, ситуация когда «т.к. я могу не знать какие данные мне понадобиться» явно показывает, что что-то ты делаешь не так…

Нет, всё не так. Я же не знаю какие данные и таблицы под капотом у функции ОПР_СУММУ_БУХГАЛТЕСКОГО_СЧЁТА, да мне и не нужно этого знать

Зачем что-то блокировать на чтение? За тебя все сделает хазелькаст ровно так же, как делает Оракл. Блокировать что-то нужно на изменение. В общем очевидно, что я могу только отправить к документации.

Я вроде не говорил что на чтение, на запись конечно. И Оракл ничего не блокирует при чтении. Ну т.е. мы пришли к ситуации что для получения сводного согласованного отчёта по всем данным надо заблокировать за запись всю БД.
Нет, всё не так. Я же не знаю какие данные и таблицы под капотом у функции ОПР_СУММУ_БУХГАЛТЕСКОГО_СЧЁТА, да мне и не нужно этого знать

Я про ситуацию, когда «запрашиваю все, потому что не знаю, что из этого мне надо».
Ну т.е. мы пришли к ситуации что для получения сводного согласованного отчёта по всем данным надо заблокировать за запись всю БД.

Никуда мы не пришли, это вы упорно натягиваете сову на глобус. На запись что-то блокирует для себя программист, точно так же, как блокирует любые объекты в конкуррентном окружении — Lock, CountdownLatch, и прочие мютексы с семаформаи делают ровно это. Ровно в этой парадигме программист лочит объекты Хазелькаста, лочит заботясь о себе, а не о Хазелькасте и его внутренней согласованности данных. То есть лочить прогер должен когда хочет монопольно изменять объект ковыряя при этом пальцем в носу. Случай если кто-то что-то запросил на чтение, и в этот момент кто-то что пишет Хазелькаст разруливает самостоятельно точно так же, как Оракл, прозрачно для программиста.
Логика в базе это лишние костыли которые могут привезти к ошибкам, которые даже юнит тестами не покроешь.

Дело же не именно в кэшировании, а в управлении кодом. Да, результат запроса вы закешируете. А результат вызова Web-API уже нет.

Сломанные данные это ошибка в логике. И как раз логикой проще управлять на специализированных языках.
Логика в базе это лишние костыли которые могут привезти к ошибкам, которые даже юнит тестами не покроешь.

Утверждение которое ни имеет ничего общего с реальностью. В комментариях к своей статье я писал как элементарно написать юнит-тесты к логике в mysql
habr.com/post/312134/#comment_9849654
в Oracle использую utPLSQL

Сломанные данные это ошибка в логике. И как раз логикой проще управлять на специализированных языках.

Опять какое-то голословное утверждение. чем SQL не специализированный язык? Как раз специализированный язык для обработки данных
чем SQL не специализированный язык? Как раз специализированный язык для обработки данных

Ни в коем случае! Он, конечно, специализированный, но не для обработки — извлечение и обновление это не обработка. Это именно что подготовка data set для дальнейшей работы с ним. Pl/sql ведь так и возник — данные нужно было обрабатывать, а sql мог ими только манипулировать, да и то ограниченно.
Вот тут очень люблю цитировать Кайта, SQL самый первый язык для обработки данных и самый быстрый, далее если на нём не можем сделать что-то, то используем PL/SQL ну и далее, по возрастанию времени обработки и сложности программирования.
  • если можно, сделай это с помощью одного оператора SQL;
  • если это нельзя сделать с помощью одного
    оператора SQL, сделай это в PL/SQL;
  • если это нельзя сделать в PL/SQL, попытайся использовать хранимую процедуру на языке Java;
  • если это нельзя сделать в Java, сделай это в виде внешней процедуры на языке C;
  • если это нельзя реализовать в виде внешней процедуры на языке C, надо серьезно подумать, зачем это вообще делать...

У Кайта, уж прости, Оракл головного мозга, профессиональный перекос, да и говорил он это все уже давно. В текущих реалиях совет писать хранимку на джаве, а внешку на С, выглядит минимум странно — Spring со своим jdbcTemplate настолько упростил работу с БД, что даже странно смотреть куда-то еще :)
Утверждение которое ни имеет ничего общего с реальностью.

Ага, я о том же. У вас тоже обобщенное необоснованное утверждение.


В комментариях к своей статье я писал как элементарно написать юнит-тесты к логике в mysql

Ага, только это не юнит-тесты, а интеграционные, и они точно также пишутся для логики в коде.


чем SQL не специализированный язык? Как раз специализированный язык для обработки данных

Тем, что специализирован он не для написания логики. Как там со структурированием и переиспользованием кода? Объекты, наследование, типизация, ассоциативные массивы произвольной структуры.

Ага, только это не юнит-тесты, а интеграционные, и они точно также пишутся для логики в коде.

Самые что не наесть юнит тесты
unit testing — процесс в программировании, позволяющий проверить на корректность единицы исходного кода

Единицей исходного кода в БД может являться функция или процедура.

Тем, что специализирован он не для написания логики.

А по мне так он прекрасно для этого подходит, я в своём примере это показал.
Самые что не наесть юнит тесты

Там дальше написано "Это ошибка, поскольку тест не должен выходить за границу класса". У вас работает вся система управления БД полностью.
В общем, то, что вы делаете (работа с тестовой БД), при логике в коде называется интеграционным тестированием, и абсолютно ничем не отличается.


я в своём примере это показал

Если вы про нашу беседу, то мы не сравнивали читаемость. Понятно, что на любом Тьюринг-полном языке можно написать логику обработки. Вопрос только в количестве и качестве написанного (поддерживаемости).

Хорошо, давайте назовём тестирование детерминированных функций БД — юнит тестированием, а не детерминированных — интеграционным тестированием, суть от этого не изменится. Юнит тесты пишутся и используются прекрасно в БД.

Если вы про нашу беседу, то мы не сравнивали читаемость. Понятно, что на любом Тьюринг-полном языке можно написать логику обработки. Вопрос только в количестве и качестве написанного (поддерживаемости).

Для меня язык SQL простой и лаконичный, его просто поддерживать, а что там и как нагорожено в ОРМ одному чёрту известно + надо учить синтаксис конкретной ОРМ + синтаксис меняется от ОРМ к ОРМ + ОРМ в конечном итоге всё-равно создаёт SQL в котором приходится разбираться в случае возникновения проблем
а что там и как нагорожено в ОРМ одному чёрту известно

Код ОРМ не является кодом, который надо писать и поддерживать. То есть его кто-то пишет, но это сторонний код, в отличие от бизнес-логики.


надо учить синтаксис конкретной ОРМ + синтаксис меняется от ОРМ к ОРМ

Зачем? Открываем код или доки, смотрим конкретное название и параметры. Ничем не отличается от работы с сотней других библиотек.


Для меня язык SQL простой и лаконичный

"Для вас простой" означает "специализирован для написания логики"?
Он для вас простой потому что вы постоянно с ним работаете. По лаконичности я приводил другие примеры в той статье, кода там гораздо меньше.


ОРМ в конечном итоге всё-равно создаёт SQL в котором приходится разбираться в случае возникновения проблем

Ну возникла проблема, разобрались. Зачем постоянно то на нем писать?

У SQL нет версий и диалектов?
Если вы роль приложения или сервера приложений сводите к тонкой прокладке между пользователем и СУБД, а я роль СУБД свожу к тупому, пускай и быстрому хранилищу, то дискутировать о том какой подход лучше, я особого смысла не вижу из-за явного различия критериев «лучше»
Если б был идеально правильний вариант «серебряная пуля» все так бы и работали, ну или почти все :). У каждого подхода есть свои плюсы и минусы. Ведь не секрет что на сегоднишний день в БД является узким местом во многих задачах. И оно узко именно через то, что БД используют неправильно, или вибор БД бил ошибочен. Проще всего через неделю, месяц или год когда система становится «ватной» или начнет «залипать» сказать: «Ми же все зделали идеально: используем наимоднейшие технологии и последние фичи языка, абстракции, SOLID, покрыли все тестами, і тд. Ето все криворукее админы БД ведь БД ето только быстрое хранилище, а почему оно не достаточно быстрое ето их забота, пусть разбираются и добавят какието там индексы». А админы разведут руками и скажут — ведь там блокировки, борьба за ресурсы, тисячи запросов вместо одного. И дай бог им общими усилиями найти выход или полувыход из ситуации.
Я участвовал в разработках где вся БЛ на БД, и где на БД запрещены ХП (Слава богу хотя foreign key разрешили). Я скажу так, не важно какой путь вы вибрали. Всегда нужно помнить: Каждая БД имеет свой «характер» И то что на MSSQL\Oracle\MySQL\Postgresql\… работает на ура в другой БД может тупить, или вообще не работать. Если у вас OLTP система — не знание етих нюансов ето смерть в продакшине. Я не агетирую за БЛ на БД. Я агитирую за то что разработчик должен знать особенности БД которую будет использовать. И ето значительно важнее для качественного продукта чем знатие всех фич язика или нових фреймворков.
P.S. И да для меня для меня скорость и отзывчевость програмы ето один из главнейших критетеев програмы на равне с юзебилити.
И я видел людей, для которых отритие документа в 1 минуту уже не проблема, они смирились и считают ето нормой. Видя такой софт грусно становится…
Про характер я согласен, и наверное правильно его учитывать, если задача изначально не подразумевает «кроссбазаданность», но по умолчанию только одно место для его учёта должно быть, по-моему: инфраструктурный уровень приложения, подсистема хранения.
То о чем эта конкретная статья — это неявно касается конкретно ORM и SQL баз данных. Конечно, последняя версия PostgreSQL очень неплохо поработала над кластеризацией (хотя запись в мастер нужно вести всегда в один по-прежнему) — так или иначе приложения очень быстро упираются именно в производительность базы данных. Как это обычно выглядит процесс. Нужно сделать сайт. Берем фреймверк, ОРМ, не паримся. После этого в какой-то момент все начинает тормозить. И огказывается что все нужно переписывать сначала. Ина совсем других основах. Впрочем. Если посещаемость у сайта нулевая, то все вроде бы довольны. Радота сделана, клиент доволен. Можно в том же стиле дальше продолжать. Другое дело, что когда зайдет высокопроивзоительный проект вдург внезапно оказывается что ни у кого нет наработок в этом направлении.
Sign up to leave a comment.

Articles

Change theme settings