@
laminux29 1. 增量传输本质上是去重没错,底层都要计算校验和以及哈希,但是任何本地去重(如 ZFS 去重)都不能代替增量传输;自己写脚本实现 rsync 式的算法也不难,不构成理由
2. 增量传输只要完成,最终文件的哈希相同,就没有任何缺点,和全量传输的结果一定是相同的,完全适用于工业级和高可靠性的系统,我来告诉你一个这样的备份系统可以怎么样设计(从 Windows 设备到 ZFS 的服务器):为了确保一致性,在 Windows 这边需要应用感知的备份(比如数据库自带的备份工具)和卷影复制配合得到一个一致的快照,再用 rsync (和 cwRsync )增量传输到服务器,然后两边各计算一次哈希值验证(可以保留这些哈希值以后用得上),用 ZFS 快照保留指定数量的历史版本,然后还要处理一些细节问题,包括传输失败、审计日志、预防勒索软件等等,备份应该是服务器拉取客户端的数据而不是反过来,备份要符合 3-2-1-1-0 原则( 3 份数据、2 种介质、1 个异地、1 个离线/不可变/空气隔离、0 个错误),这里“0”指的是定期需要恢复和验证备份(也就是那句“没有成功恢复过的备份不算备份”)
非常肯定地告诉你增量备份完全适合工业级高可靠性要求的生产环境