Как стать автором
Поиск
Написать публикацию
Обновить
-2
0
Артур @artydev

Делаю антифрод в Альфа банке, веду канал @artydevc

Отправить сообщение

В этом и проблема, что не снимается (единственный вариант - использовать предыдущий дамп)

Сложно чинить проблему стороннего сервиса (marzban - панель), поэтому было принято решение о переходе на другую СУБД, с которой, по опыту сообщества - таких проблем нет

Тоже использую sqlite в личных проектах и никаких проблем нет, тема поста скорее решает проблему конкретного сервиса/продукта (marzban - панель), в котром непонятное стечение абстоятельств приводит к повреждению файла (поймать ошибку не удалось)

Проблема в актуальности, бэкапы делались изначалось раз в сутки, после первого падения базы - стал делать их каждые 30 минут, но это все равно некотрая дельта потерь при восстановлении.

Проблема простая: откуда взять информацию за последние 30 минут?

SELECT schemaname,
       C.relname AS "relation",
       pg_size_pretty (pg_relation_size(C.oid)) as table,
       pg_size_pretty (pg_total_relation_size (C.oid)-pg_relation_size(C.oid)) as index,
       pg_size_pretty (pg_total_relation_size (C.oid)) as table_index,
       n_live_tup
FROM pg_class C
LEFT JOIN pg_namespace N ON N.oid = C .relnamespace
LEFT JOIN pg_stat_user_tables A ON C.relname = A.relname
WHERE nspname NOT IN ('pg_catalog', 'information_schema')
AND C.relkind <> 'i'
AND nspname !~ '^pg_toast'
ORDER BY pg_total_relation_size (C.oid) desc

Вот этим запросом

Если таблицы не сильно большие и есть уверенность в том,что вакум отработает за 1 минуту и это не затронет вашу систему - то просто запускайте команду `vacuum full schema_name.table_name`

Для удобства можно запустить из условного `/var/lib/postgresql/bin/psql`, зависит от того, где у вас установлена бд

Сильно зависит от вашей задачи, чистите ли вы одну таблицу или множество? Как активно они используются - постоянно или к примеру только ночью для расчетов?
Какой размер таблицы и так далее.

Важно понимать, vacuum full - блокирует таблицу, работать с ней не получится. vacuum - не блокирует, но решает проблему не полностью

У самурая нет цели, только путь.

Данные, которые я собираю отсутствуют в статистике консоли Гугл, вы как будто не читали, но осуждаете.

Собираю для визуализации, для меин пейдж расширения

Почему нет, данные обезличены, никаких проблем нет

Зависит от доступного сетевого канала, есть утилита линуксовая speedtest или speedtest-cli.
Можно ориентироваться на неё (помимо тарифа с каналом), по грубой прикидке, если speedtest выдает больше 150 мб (желательно в обе стороны) - можно смело держать там 50 пользователей

Из коробки - нет, только самому распределять пользователей по нодам.
Как один из вариантов - через динамический ключ

А я и не утверждаю, что именно домен должен решить все существующие проблемы, идея домена как минимум в том, чтобы разделить сервис с конфигами и VPN - сервис.

Слышали, но про блокировки сайтов - пока только проект, в котором упоминается "блокировка сайтов содержащих информацию о обходе и доступу ..."

К блокировке поддомена, который принимает только GET запрос для узкого пула пользователей, пока не вижу никаких предпоссылок.

Вы имеете ввиду клиенты shadowsocks?
ssconf - конфиг принимает Outline, на счет остальных не уверен (не тестировал)
В них наверное можно попробовать отдать https

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Аналитик по данным, Инженер по данным
Ведущий
Python
SQL
Базы данных
Linux
Git
Высоконагруженные системы
PostgreSQL