Резервное копирование PostgreSQL (большие обьемы)

Господа, подскажите советом!

Есть PostgerSQL, который настроен в режиме Master-Slave (pg_basebackup) + master и slave копируются скриптом pg_dump на сервер бекапа через ssh.
Сервер бекапа всего 2.4 Терабайта, а размер БД уже 180 Гигабайт.
Сжатие gzip (самый быстрый по тестам) занимает 10 часов! и недалек час когда время следующего бекапа наступит раньше момента окончания архивирования предыдущего.

Как оптимизировать этот процесс? (бекапить Postgres в сжатом виде за меньшее кол-во времени)

Опции просмотра комментариев

Выберите предпочитаемый вами способ показа комментариев и нажмите "Сохранить настройки" для активации изменений.

Читали? http://postgresql.ru.

Читали?
http://postgresql.ru.net/manual/backup.html
Я не знаю вашей специфики, но вам нужно либо думать о бакапах через снапшот файловой системы, либо делать полный бакап скажем раз в неделю, а всё остальное время бакапить WAL, чтобы восстановление выглядело как раскатка полного бакапа и накат WAL'ов по нужный момент времени.

1. Снимаете полный архив

1. Снимаете полный архив через pg_basebackup раз в месяц/неделю и архивируете его
2. Ежедневно архивируете WAL'ы.

profit!

Опции просмотра комментариев

Выберите предпочитаемый вами способ показа комментариев и нажмите "Сохранить настройки" для активации изменений.

Back to top

(С) Виктор Вислобоков, 2008-2023