Господа, подскажите советом!
Есть PostgerSQL, который настроен в режиме Master-Slave (pg_basebackup) + master и slave копируются скриптом pg_dump на сервер бекапа через ssh.
Сервер бекапа всего 2.4 Терабайта, а размер БД уже 180 Гигабайт.
Сжатие gzip (самый быстрый по тестам) занимает 10 часов! и недалек час когда время следующего бекапа наступит раньше момента окончания архивирования предыдущего.
Как оптимизировать этот процесс? (бекапить Postgres в сжатом виде за меньшее кол-во времени)
Читали? http://postgresql.ru.
Читали?
http://postgresql.ru.net/manual/backup.html
Я не знаю вашей специфики, но вам нужно либо думать о бакапах через снапшот файловой системы, либо делать полный бакап скажем раз в неделю, а всё остальное время бакапить WAL, чтобы восстановление выглядело как раскатка полного бакапа и накат WAL'ов по нужный момент времени.
1. Снимаете полный архив
1. Снимаете полный архив через pg_basebackup раз в месяц/неделю и архивируете его
2. Ежедневно архивируете WAL'ы.
profit!