linux – 网站的增量备份

我想制作我网站的定期存档.
我有lftp脚本通过ftp将网站内容下载到今天(日期%Y%m%d)目录.
在没有多次重复的情况下进行增量压缩备份的最佳方法是什么?

解决方法

Duplicity可能符合您的需求.

它是增量的:执行完整备份后,所有未来的备份都只是差异文件.值得注意的是,它与存储最新状态镜像的其他备份解决方案相反,而差异文件则重新创建以前的备份点.

它是压缩的:Duplicity是一个加密的备份(可能对你有好处,因为你被FTP困住了?) – 加密文件被压缩(据我所知).您也可以绕过加密,只需获得一个gzip压缩备份. (–no加密)

它适用于FTP:Duplicity可以使用许多远程协议(包括FTP),在你的情况下,问题是需要从你的服务器运行双重性.我不相信您可以使用duplicity将远程源备份到本地目标(只是本地源到远程目标).

在您的情况下,如果您没有在传输数据时寻找压缩优势,只存储数据,那么您可以保留您的FTP脚本,并在转移当前“图像”之后将备用信息备份到您现有的临时图像备份,删除图像.这样,您将拥有一系列备份文件,可用于在任何备份点恢复您的站点,并且这些文件将仅是上次备份点的更改的gziped归档.

只需注意,每隔一段时间做一次“完整”备份是明智的,因为duplicity依赖于完整备份中的每个增量备份.

另一种解决方案(假设再次在本地临时存储FTP的副本是可以接受的),只需使用rdiff-backup.这将为您提供您站点的镜像(从上次备份开始),过去的备份将存储为差异倒退.我不确定它们是否已压缩,但即使它们不是,您也只会将更改存储到每个备份点的文件中.

相关文章

在Linux上编写运行C语言程序,经常会遇到程序崩溃、卡死等异...
git使用小结很多人可能和我一样,起初对git是一无所知的。我...
1. 操作系统环境、安装包准备 宿主机:Max OSX 10.10.5 虚拟...
因为业务系统需求,需要对web服务作nginx代理,在不断的尝试...
Linux模块机制浅析 Linux允许用户通过插入模块,实现干预内核...
一、Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个...