Немного отвлечемся от простых SELECT и посмотрим на реальной бизнес-задаче построения различных "тепловых карт" и "шахматок", как знание возможностей SQL может облегчить жизнь и разработчику, и его базе.
Обычно это начинается с "хотелок" бизнеса вроде "а вот тут мы нарисуем почасовую активность с динамикой по часам и суткам"...

... или "нам нужен отчет по статусам задач в разрезе сотрудников с общими итогами", ...

... или даже "нам нужен список документов на выполнении с их общим количеством и детализацией по исполнителям и клиентам":

Суть всех этих задач примерно одна и та же: у нас есть некоторый исходный набор фактов в БД, а в интерфейсе хочется получить одновременно агрегаты в нескольких разрезах.
Давайте попробуем на примере первой задачи с тепловой картой на временном интервале разобрать несколько вариантов возможной реализации на стороне БД, чтобы найти:
количество фактов в каждой "клетке" день/час
количество фактов в каждом дне
количество фактов в каждом часе
количество фактов на всем инте��вале
Но сначала сформируем таблицу из миллиона случайным образом распределенных исходных "фактов" по аналогии с использовавшейся в предыдущей статье "SQL HowTo: TOP-N на субинтервалах":
CREATE TABLE timefact AS SELECT '2023-01-01'::date + '1 sec'::interval * (random() * 365 * 86400)::integer ts -- время факта FROM generate_series(1, 1e6); -- без индекса - никуда CREATE INDEX ON timefact(ts);
Итак, попробуем посчитать искомые данные на интервале декабря.
Очевидно, сначала нам надо научиться получать данные для самой "матрицы" с координатами (день, час):
EXPLAIN (ANALYZE, BUFFERS) SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2 ORDER BY 1, 2;
Посмотрим на план этого запроса:

Из 66мс почти треть заняла сортировка. В принципе, если мы можем позволить себе переупорядочивать данные на бизнес-логике, то от упорядочивания результата мы можем отказаться:
SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2;
Это сэкономит нам примерно четверть времени:

А вот дальше - интереснее... Декабрь-то у нас не завершен, а вполне себе идет "прямо сейчас", поэтому просто выполнить последовательно 4 независимых запроса с нужной агрегацией по исходным данным не выйдет - цифры разбегутся.
Значит, нам необходимо как-то "зафиксировать" данные - и в PostgreSQL мы можем сделать это разными способами.
Временная таблица
Первый способ заключается в формировании временной таблицы с уже предагрегированными данными:
CREATE TEMPORARY TABLE preagg AS SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2;
Поскольку данные нам все-таки надо "записать", выполнение этого запроса будет примерно на 50% дольше. Зато дальше все просто и быстро - каждый запрос меньше 1мс:
-- перечитываем сформированные "клетки" TABLE preagg; -- по дням SELECT dt , sum(count) FROM preagg GROUP BY 1; -- по часам SELECT hr , sum(count) FROM preagg GROUP BY 1; -- "итого" SELECT sum(count) FROM preagg;
Правда, при активном использовании временных таблиц может "пухнуть" системный каталог (таблицы pg_class, pg_attribute, ...), постепенно замедляя все запросы.
Несколько запросов в транзакции
В качестве альтернативы можно рассмотреть вариант транзакции в режиме REPEATABLE READ, где каждый из запросов будет "ходить" по исходным данным:
BEGIN ISOLATION LEVEL REPEATABLE READ; -- по "клеткам" SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2; -- по дням SELECT ts::date dt , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1; -- по часам SELECT extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1; -- "итого" SELECT count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31'; COMMIT;
Однако, мы перечитывали исходные данные и вычисляли ключи агрегации каждый раз, увеличив время выполнения запроса, примерно в те же 4 раза. Не говоря уж о том, что длительные транзакции (если этот отчет будет достаточно долгим) в PostgreSQL могут принести проблем.
CTE + UNION ALL
А почему бы нам не вычислить и вернуть сразу все данные за один запрос?..
Договоримся о формате ответа:
(dt IS NOT NULL, hr IS NOT NULL)- "клетка"(dt IS NOT NULL, hr IS NULL)- по дням(dt IS NULL, hr IS NOT NULL)- по часам(dt IS NULL, hr IS NULL)- "итого"
Вместо временной таблицы воспользуемся CTE, а результаты запросов "склеим" через UNION ALL:
WITH preagg AS ( SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2 ) TABLE preagg UNION ALL SELECT dt , NULL hr , sum(count) count FROM preagg GROUP BY 1 UNION ALL SELECT NULL dt , hr , sum(count) count FROM preagg GROUP BY 2 UNION ALL SELECT NULL dt , NULL hr , sum(count) count FROM preagg;
В принципе, на этом можно бы и остановиться, поскольку в плане уже все достаточно неплохо:

GROUPING SETS
Но все-таки как-то "неаккуратненько" - слишком много повторяющегося кода нам пришлось написать. Но ведь этого можно и не делать, если воспользоваться функционалом наборов группирования.
Необходимый нам вариант группировок можно записать так:
GROUPING SETS ( (dt, hr) , (dt ) , ( hr) , ( ) ) -- или короче: GROUPING SETS ( CUBE(dt, hr) )
После чего наш запрос сокращается всего-то до вот такого:
SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY GROUPING SETS ( CUBE(1, 2) );
Такой план анализировать гораздо приятнее:

В большинстве случаев на этом и стоит остановиться, если значения ключей агрегации у вас не требуют дополнительных вычислений.
Однако, это не наш случай, поскольку мы вычисляли ключи для каждой исходной записи для каждого варианта агрегации независимо - от этого время выполнения нашего запроса существенно выросло!
CTE + GROUPING SETS
"Спрячем" вычисление ключей и предварительную агрегацию обратно "под CTE" и уберем повторные вычисления из GROUPING SETS:
WITH preagg AS ( SELECT ts::date dt , extract(hour FROM ts) hr , count(*) FROM timefact WHERE ts BETWEEN '2023-12-01' AND '2023-12-31' GROUP BY 1, 2 ) TABLE preagg UNION ALL SELECT dt , hr , sum(count) count FROM preagg GROUP BY GROUPING SETS ( 1 , 2 , () );
Теперь наш запрос снова так же эффективен, как вариант с CTE + UNION ALL, но написать нам пришлось существенно меньше кода:

Всем хочу напомнить, что для эффективной профилировки ваших запросов к PostgreSQL в виде таких красивых картинок вы можете совершенно свободно воспользоваться нашим сервисом explain.tensor.ru или приобрести его для корпоративных нужд.

