Всем доброго времени суток!
Недавно пережитый опыт работы с отчетом хочу выставить на всеобщее обозрение,
вдруг кому-то будет полезен. Чтобы не томить и сохранить более технический подход, давайте сразу начнем "разбор полёта".
В какой-то момент у нас появился вот такой запрос:
выгрузить Excel-отчёт
около 150k строк данных
Go + excelize
обычный HTTP endpoint
SQL-запросы работали быстро. Индексы были в порядке. Памяти серверу хватало.
Но сам Excel-отчёт генерировался больше минуты.
На локальной машине выгрузка занимала около 16 секунд. На тестовом сервере — 35-40 секунд, после чего nginx начинал отдавать 502 Bad Gateway.
Проблема оказалась совсем не там, где ожидалось.
Bottleneck был:
не в БД
не в сети
не в JSON
а в генерации Excel.
Причём основное время уходило не на запись данных, а на:
стили
XML-сериализацию
allocations
постоянные вызовы
SetCellStyleи создание тысяч объектов внутри циклов.
В статье покажу:
почему наивная генерация Excel медленная
как
SetCellStyleубивает производительностьзачем нужен
StreamWriterпочему
StreamWriterломает шаблоныкак совместить потоковую генерацию и Excel template
и почему большие Excel-экспорты лучше вообще выносить из HTTP lifecycle.
Наивная реализация
Первое, с чего начинается любая задача подобного рода — это стандартный подход через excelize.NewFile() и последовательное заполнение ячеек.
На этом этапе всё выглядит абсолютно нормально: есть файл, есть цикл по данным, есть запись значений в ячейки.
Пример упрощённой реализации выглядел примерно так:
xlsx := excelize.NewFile() sheet := "Report" index, _ := xlsx.NewSheet(sheet) xlsx.DeleteSheet("Sheet1") startRow := 4 for i, v := range payments { row := startRow + i xlsx.SetCellValue(sheet, fmt.Sprintf("A%d", row), i+1) xlsx.SetCellValue(sheet, fmt.Sprintf("B%d", row), v.Account) xlsx.SetCellValue(sheet, fmt.Sprintf("C%d", row), v.Amount) xlsx.SetCellValue(sheet, fmt.Sprintf("D%d", row), v.Reward) xlsx.SetCellValue(sheet, fmt.Sprintf("E%d", row), v.ServiceName) }
На первый взгляд — ничего подозрительного. Обычный код, который делает ровно то, что ожидается: заполняет Excel-таблицу построчно.
Дальше добавляется оформление, потому что “без стилей Excel выглядит плохо”.
И именно здесь начинается деградация производительности:
xlsx.SetCellStyle(sheet, fmt.Sprintf("A%d", row), fmt.Sprintf("D%d", row), someStyle)
И, что важно — это делается внутри цикла на каждую строку.
В итоге одна строка превращается не просто в запись данных, а в:
создание координат ячеек
применение стилей
генерацию XML-узлов внутри файла
множество внутренних allocations в библиотеке
На объёмах в 100k+ строк это начинает играть критическую роль.
И если на локальной машине это ещё терпимо, то на сервере под нагрузкой это легко превращается в десятки секунд генерации и, как следствие, timeout на уровне nginx.
Где начинается проблема
Сначала подозрения стандартные — БД, сеть, сериализация. Запустили explain analyse и показатели были хорошими с учетом объема:
Результат анализа
Limit (cost=2.16..64407.86 rows=155169 width=461) (actual time=0.951..1432.129 rows=157770 loops=1) -> Nested Loop (cost=2.16..64407.86 rows=155169 width=461) (actual time=0.949..1405.383 rows=157770 loops=1) -> Nested Loop (cost=1.88..60261.77 rows=155169 width=436) (actual time=0.840..1245.680 rows=157770 loops=1) -> Nested Loop (cost=1.73..56479.45 rows=155169 width=412) (actual time=0.786..1106.804 rows=157770 loops=1) -> Nested Loop (cost=1.59..52987.72 rows=155169 width=388) (actual time=0.728..963.468 rows=157770 loops=1) -> Nested Loop (cost=1.43..49112.43 rows=155169 width=354) (actual time=0.676..820.912 rows=157770 loops=1) -> Nested Loop (cost=1.15..44973.22 rows=155169 width=314) (actual time=0.503..666.356 rows=157770 loops=1) -> Nested Loop (cost=1.00..41403.40 rows=155169 width=290) (actual time=0.359..530.395 rows=157770 loops=1) -> Nested Loop (cost=0.72..37512.22 rows=155169 width=271) (actual time=0.304..390.222 rows=157770 loops=1) -> Index Scan using idx_payments_export on payments p (cost=0.43..33525.35 rows=155169 width=220) (actual time=0.199..192.239 rows=157770 loops=1) Index Cond: ((created_at >= '2025-07-01 00:00:00+00'::timestamp with time zone) AND (created_at < '2026-04-30 23:59:00+00'::timestamp with time zone)) -> Memoize (cost=0.29..0.31 rows=1 width=59) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: p.dealer_id Cache Mode: logical Hits: 157443 Misses: 327 Evictions: 0 Overflows: 0 Memory Usage: 54kB -> Index Scan using dealers_pkey on dealers d (cost=0.28..0.30 rows=1 width=59) (actual time=0.012..0.012 rows=1 loops=327) Index Cond: (id = p.dealer_id) -> Memoize (cost=0.29..0.30 rows=1 width=35) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: p.srv_id Cache Mode: logical Hits: 157718 Misses: 52 Evictions: 0 Overflows: 0 Memory Usage: 8kB -> Index Scan using services_pkey on services s (cost=0.28..0.29 rows=1 width=35) (actual time=0.042..0.042 rows=1 loops=52) Index Cond: (id = p.srv_id) -> Memoize (cost=0.14..0.17 rows=1 width=40) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: d.region_id Cache Mode: logical Hits: 157765 Misses: 5 Evictions: 0 Overflows: 0 Memory Usage: 1kB -> Index Scan using regions_pkey on regions r (cost=0.13..0.16 rows=1 width=40) (actual time=0.030..0.030 rows=1 loops=5) Index Cond: (id = d.region_id) -> Memoize (cost=0.29..0.31 rows=1 width=56) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: p.user_id Cache Mode: logical Hits: 157174 Misses: 596 Evictions: 0 Overflows: 0 Memory Usage: 96kB -> Index Scan using tusers_pkey on tusers u (cost=0.28..0.30 rows=1 width=56) (actual time=0.013..0.013 rows=1 loops=596) Index Cond: (id = p.user_id) -> Memoize (cost=0.15..0.27 rows=1 width=50) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: d.branch_id Cache Mode: logical Hits: 157745 Misses: 25 Evictions: 0 Overflows: 0 Memory Usage: 4kB -> Index Scan using branches_pkey on branches b (cost=0.14..0.26 rows=1 width=50) (actual time=0.015..0.015 rows=1 loops=25) Index Cond: (id = d.branch_id) -> Memoize (cost=0.14..0.16 rows=1 width=40) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: p.partner_id Cache Mode: logical Hits: 157768 Misses: 2 Evictions: 0 Overflows: 0 Memory Usage: 1kB -> Index Scan using partners_pkey on partners pr (cost=0.13..0.15 rows=1 width=40) (actual time=0.028..0.028 rows=1 loops=2) Index Cond: (id = p.partner_id) -> Memoize (cost=0.15..0.19 rows=1 width=40) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: s.category_id Cache Mode: logical Hits: 157760 Misses: 10 Evictions: 0 Overflows: 0 Memory Usage: 2kB -> Index Scan using categories_pkey on categories c (cost=0.14..0.18 rows=1 width=40) (actual time=0.009..0.009 rows=1 loops=10) Index Cond: (id = s.category_id) -> Memoize (cost=0.29..0.32 rows=1 width=16) (actual time=0.000..0.000 rows=1 loops=157770) Cache Key: p.term_id Cache Mode: logical Hits: 157180 Misses: 590 Evictions: 0 Overflows: 0 Memory Usage: 70kB -> Index Scan using terminals_pkey on terminals t (cost=0.28..0.31 rows=1 width=16) (actual time=0.017..0.017 rows=1 loops=590) Index Cond: (id = p.term_id) Planning Time: 21.857 ms Execution Time: 1445.455 ms
SQL отрабатывал быстро, данные приходили мгновенно, а общий ответ всё равно занимал 30–40 секунд.
При этом под нагрузкой nginx начинал отдавать 502.
После профилирования стало видно: время уходит не на получение данных, а на генерацию Excel через excelize.
Основной вклад давали операции внутри цикла — особенно SetCellStyle и работа с ячейками.
Стало очевидно: проблема не в данных, а в построении Excel-файла.
Почему Excel оказался медленным
Формат .xlsx — это не “таблица”, а ZIP-архив с набором XML-файлов внутри (недавно сам узнал).
Каждая запись в Excel через excelize фактически превращается в:
генерацию XML-узлов
упаковку структуры в архив
На небольших объёмах это незаметно.
Но на 100k+ строк начинают проявляться две ключевые проблемы:
1. Работа с ячейками
Когда мы используем методы вроде SetCellValue или SetCellStyle, они изменяют только одну конкретную ячейку. Каждое обращение — это отдельная операция: библиотека открывает внутренний XML‑файл Excel, находит нужную ячейку и вносит правку.
2. Стили внутри цикла
Применение стиля не “кэшируется по строке”, а повторно обрабатывается для каждого вызова.
В итоге генерация становится не просто записью данных, а большим количеством мелких операций над XML-структурой.
И чем больше данных — тем сильнее растёт стоимость не самих данных, а их “обёртки” в Excel.
Первая оптимизация: убираем очевидные потери
После профилирования стало понятно, что проблема не в одном месте, а в накопленных мелочах внутри цикла.
Первым делом убрали самое очевидное:
1. Форматирование строкfmt.Sprintf в цикле для адресации ячеек оказалось лишним. Его заменили на более дешёвую сборку координат.
2. Повторяющиеся вычисления
Значения вроде статусов и типов терминалов вынесли в map и простые условия, чтобы не пересчитывать их на каждой итерации.
3. Лишние allocations
Слайсы и буферы начали переиспользовать, чтобы снизить нагрузку на GC.
После этого код стал легче, но ключевая проблема осталась — работа с excelize на уровне ячеек и стилей всё ещё доминировала по времени.
Шаг 2: попытка через шаблон
После ускорения генерации данных логичным шагом стало использование Excel-шаблона.
Идея была простая: взять готовый .xlsx файл с оформлением и заполнять его данными, не трогая стили в коде.
Пример инициализации выглядел так:
xlsx, err := excelize.OpenFile("templates/cash-in.xlsx") if err != nil { return nil, err }
Далее мы заполняли служебные поля (например, период отчёта):
_ = xlsx.SetCellValue(templateSheet, "B2", "C: "+dateFrom.Format("02-01-2006 15:04:05")) _ = xlsx.SetCellValue(templateSheet, "C2", "По: "+dateTo.Format("02-01-2006 15:04:05"))
И уже после этого пытались писать данные.
На этом этапе отчёт выглядел правильно — стили и оформление полностью сохранялись.
Но при объёме ~150k строк производительность оставалась проблемой:
генерация по-прежнему занимала десятки секунд.
Шаг 3: переход на StreamWriter
Следующим шагом мы попробовали StreamWriter, чтобы уйти от cell-level API и лишних операций над ячейками.
Базовая схема выглядела так:
sw, err := xlsx.NewStreamWriter("Data") if err != nil { return err } row := make([]interface{}, 0, 20) for i, v := range payments { terminalType := "Тип1" if v.TerminalType == 2 { terminalType = "Тип2" } row = row[:0] // очищаем row = append(row, i+1, v.Account, v.Amount, v.Reward, ... ) cell, _ := excelize.CoordinatesToCellName(1, startRow+i) if err := sw.SetRow(cell, row); err != nil { return err } }
После перехода на потоковую запись:
снизилась нагрузка на память
ускорилась генерация данных
уменьшилось количество операций внутри цикла
Но появился новый эффект: StreamWriter не работает с шаблоном напрямую, и часть оформления терялась.
Это и стало причиной перехода к гибридной схеме.
Финальная схема: шаблон + потоковая генерация
В итоге мы пришли к гибридному решению, которое объединило сильные стороны обоих подходов:
шаблон отвечает за внешний вид отчёта
StreamWriter— за производительность
Идея заключалась в разделении ответственности:
1. Работа с шаблоном
Шаблон используется как источник оформления и служебных данных:
xlsx, err := excelize.OpenFile("templates/example.xlsx") if err != nil { return nil, err } _ = xlsx.SetCellValue("Основной лист", "B2", "C: "+dateFrom.Format("02-01-2006 15:04:05")) _ = xlsx.SetCellValue("Основной лист", "C2", "По: "+dateTo.Format("02-01-2006 15:04:05"))
Шаблон сохраняет:
заголовки
стили
ширины колонок
оформление отчёта
2. Потоковая запись данных
Данные пишутся отдельно через StreamWriter, без работы со стилями:
sw, err := xlsx.NewStreamWriter("Data") if err != nil { return err } for i, v := range payments { terminalType := "Тип1" if v.TerminalType == 2 { terminalType = "Тип2" } row := []interface{}{ i + 1, v.Account, v.Amount, ... } cell, _ := excelize.CoordinatesToCellName(1, startRow+i) if err := sw.SetRow(cell, row); err != nil { return err } }
3. Связывание шаблона и данных
После генерации данных выполняется финальная сборка:
перенос заголовков из шаблона
копирование ширин колонок
применение стилей
замена или переименование sheet
headers, _ := xlsx.GetRows("Основной лист") if len(headers) >= 3 { cell, _ := excelize.CoordinatesToCellName(1, 3) _ = xlsx.SetSheetRow("Data", cell, &headers[2]) }
Итоговая архитектура
В результате получили:
быстрый потоковый рендер данных
сохранение шаблонного оформления
стабильное потребление памяти даже на 150k+ строках
Итог
Главный вывод оказался неожиданно простым:
bottleneck в Excel-отчётах чаще всего не в данных, а в способе их записи.
После перехода на гибридную модель генерация стала стабильной и перестала упираться в таймауты nginx даже на больших объёмах.
