Субъективно. Я имел в виду, что в текущем Instagram формат простой - 1 тест и сразу результат. А в моем варианте, например, можно было пройти 10 вопросов и получить какой-то итоговый результат.
Не совсем так. Я на самом деле тоже не знал толком, пока не прочитал эту статью. А именно - я не знал как вычисляется хэш и что при майнинге хэши сравниваются. Поэтому перевел и опубликовал.
Я согласен. И одновременно согласен что представить хоть какой-то логичный план на 5 лет покажет что вы подумали о будущем. А это с какой-то вероятностью значит, что во время когда все изменится, вы опять сможете подумать о будущем.
N все еще количество коммитов. Просто если взять 15 коммитов и все вручную проверить, то на 5-ом начнешь уставать, а к 10-му совсем будешь фрустрирован ?.
А если взять бинарный вариант, то знаешь что за 4 раза справишься ?.
Я отвечал на такой вопрос - если мы данные храним эстетически красиво и компактно (для меня это вариант с JSONB), будет ли это драматически влиять на производительность? Ответ оказался - нет, не будет.
Спасибо за комментарий, хочу уточнить, в моем эксперименте я проверял работу по умолчанию. Задачи оптимизировать запросы не было, потому что они не являются сейчас бутылочным горлышком.
Все верно, как я говорил, в нашем кейсе данные не будут расти и по всем данным выборка тоже не будет применяться. Только с фильтром по customer_uuid (на котором есть индекс), а у каждого конкретного пользователя количество данных маленькое.
Субъективно. Я имел в виду, что в текущем Instagram формат простой - 1 тест и сразу результат. А в моем варианте, например, можно было пройти 10 вопросов и получить какой-то итоговый результат.
Не совсем так. Я на самом деле тоже не знал толком, пока не прочитал эту статью. А именно - я не знал как вычисляется хэш и что при майнинге хэши сравниваются. Поэтому перевел и опубликовал.
Привет, хорошо, больше не буду.
Я могу подредактировать, если какие-то конструкции бросаются вам в глаза, пишите. Написал в ПМ.
Пожалуйста https://unsplash.com/photos/KQBE5nFh30k
Что не так с выделенной частью?
В гугле пишут, что Organization and Leadership Review.
Я согласен. И одновременно согласен что представить хоть какой-то логичный план на 5 лет покажет что вы подумали о будущем. А это с какой-то вероятностью значит, что во время когда все изменится, вы опять сможете подумать о будущем.
Да, вы правы. Но судя по тому что я знаю, от друзей которые работают в Amazon, проверка на прочность тоже подходит :)
Ну тут каждый выбирает свое, с одной стороны испытание, с другой большее количество денег. Трейдофф.
Спасибо, добавил
Согласен, в этом тексте удельный вес про канал и не про канал как-то не в пользу разумного. Уберу последний абзац.
N
все еще количество коммитов. Просто если взять 15 коммитов и все вручную проверить, то на 5-ом начнешь уставать, а к 10-му совсем будешь фрустрирован ?.А если взять бинарный вариант, то знаешь что за 4 раза справишься ?.
Я так себе объясняю идею автора.
Я думаю это смелое предположение. Куча людей подходят к куче вещей бессистемно. Поиск бага вряд ли является исключением.
Я думал автор имел в виду просмотр коммита + запуск тестов + накапливающуюся когнитивную сложность. Но гарантий дать не могу, это перевод.
Я разворачиваю
jsonb
в рекордсет при запросеjsonb_to_recordset
, согласно документации (https://www.postgresql.org/docs/9.4/functions-json.html) это JSON Processing Function.Спасибо за фидбэк
Спасибо за фидбэк. Отвечая на ваши вопросы:
Какая альтернатива? Это может быть частью
jsonb_to_recordset
?Наверное вы имеете в виду
history_a
(гдеJSONB
). Верно дописывать было бы не слишком удобно, но у нас данные immutable.Я отвечал на такой вопрос - если мы данные храним эстетически красиво и компактно (для меня это вариант с
JSONB
), будет ли это драматически влиять на производительность? Ответ оказался - нет, не будет.Спасибо за комментарий, хочу уточнить, в моем эксперименте я проверял работу по умолчанию. Задачи оптимизировать запросы не было, потому что они не являются сейчас бутылочным горлышком.
Вот полный
EXPLAIN
реляционного запроса:Все верно, как я говорил, в нашем кейсе данные не будут расти и по всем данным выборка тоже не будет применяться. Только с фильтром по
customer_uuid
(на котором есть индекс), а у каждого конкретного пользователя количество данных маленькое.