那么我们就可以执行如下命令进行备份(注意替换自己的server即master地址和weed执行文件的位置)! f) Q# `" {! e
/application/seaweedfs/weed backup -server=127.0.0.1:9333 -dir /datahub/test -volumeId=18 R, Q/ y+ C2 n X
/application/seaweedfs/weed backup -server=127.0.0.1:9333 -dir /datahub/test -volumeId=2( ^) z" G/ F4 A. K" Y1 u
... ...% Q4 n7 ?3 J% C* ?3 b- A) q
/application/seaweedfs/weed backup -server=127.0.0.1:9333 -dir /datahub/test -volumeId=199# E# Q! P4 m6 q# G
/application/seaweedfs/weed backup -server=127.0.0.1:9333 -dir /datahub/test -volumeId=200 但是我不可能写200行命令,所以可以参考下面我编写的shell命令,来执行备份(注意替换自己的server即master地址和weed执行文件的位置): E: l8 f i g: T; K! ]9 |6 S
#!/bin/bash
6 {% t: p4 {/ Tfor i in $(seq 1 200)3 D# e0 i) U: N; B
do1 ~- D3 q- E8 x' I+ _, Z
/application/seaweedfs/weed backup -server=127.0.0.1:9333 -dir /datahub/test -volumeId=$i
4 T$ Y; _; {, O _/ L* m4 Mdone 我们可以看下备份完成之后的备份文件大小【193G】 如果filer使用了store,那么还需要备份下数据库,数据库的备份根据各种数据库类型备份不同,这里就不赘述了。 Async Backup 方式详情可以通过 官方wiki的解决来看下,下面我就我的理解与操作进行演示说明 这里使用的是weed filer.backup的方式进行备份的,这个命令在2.30版本之后才开始有的。 可以通过help查看一下帮助文档 首先我们要通过scaffold获取标准的replication.toml weed scaffold -config=replication" f1 \5 ~" o3 A" Y/ M0 r
现在次备份支持两种模式,一种是与filer同目录的,增量备份,一种是修改的单独文件夹。看下官方的说明。 我这里使用的增量模式,也就是第一种,所以配置is_incremental为true,部分有效代码如下 [source.filer]: I; I+ ]1 Q3 |% D
enabled = true/ _! Z% _. q7 `) c% A3 o
grpcAddress = "localhost:18888"
+ i6 l6 i$ L [) N c# all files under this directory tree are replicated.; C9 h, I9 U, a: L8 a8 c- O! V
# this is not a directory on your hard drive, but on your filer.
5 s* }* K; b, E) p# i.e., all files with this "prefix" are sent to notification message queue.
1 |6 n) |, W/ n4 Z: C$ Y5 S( y; Xdirectory = "/buckets"
M; R* t+ \- v% R[sink.local]
% |' K U* h0 l1 Q: u. h5 |enabled = true% ?; ~4 U) K" T2 Q
directory = "/backup/cdn_backup"* P& U. ~% n2 Q0 m& z
# all replicated files are under modified time as yyyy-mm-dd directories, E' k& a; R9 _) L
# so each date directory contains all new and updated files.
% X$ V6 X" L3 N& h; W6 Tis_incremental = true
4 M) v' H9 S9 g! f1 O配置文件中的source.filer中虽然已经配置了directory,但也可以在执行命令的时候进行配置,如下所示 PS:这里我执行是在与replication.toml同文件夹下进行执行的,你可以可以根据seaweedfs的官方说明,放到指定的位置./replication.toml、$HOME/.seaweedfs/replication.toml、/etc/seaweedfs/replication.toml。/ S A1 d8 o7 B$ P
./weed filer.backup --filerPath /buckets/img1 此命令是连续的,也就是实时监控变化,如果你不自动终止,他会一直运行(可以做成service) 此备份方法是备份的源文件,所以不需要备份数据库。 我们看下备份之后的文件夹大下【44G】 两种差异分析Data backup的方式比Async backup的方式数据差额很大,当前我的测试数据相差【149G】,对于我来说这些空间已经很奢侈了。 但是我们可以增加一个参数查看下占用的空间 可以看到有好多是31G的,但是我们实际的使用并没有达到这个值,原因是因为在启动master的时候,我们默认了volumePreallocate,这个参数会预分配空间,所以致使如此的结果。 那如果我把Data Backup的备份文件使用ZIP普通压缩下(大文件的压缩,数据量小,层级少,一般情况下压缩比较快),可以看到文件的大小是【13G】,这比源文件备份是要小很多的。(当然源文件备份对于删除的在备份的文件下是不会删除的,但是我当前的测试是没有删除的文件的) 那既然这样,我们再把Aysnc backup的结果再压缩下(小文件的压缩,数据量大,层级多,一般情况下压缩比较慢),保证其对比基础是一样的。 从下图可以看到,经过漫长的压缩之后,体积依旧还是【44G】 归纳总结从上面分析可以看出,第一种方式的压缩之后的占用还是比较小的,而且压缩速度也非常的快,在这之前也可以使用master的volumePreallocate配置不预留空间,这样备份的文件也是小的,压缩之后的文件也是小的。 这种方式需要备份数据库,并且如果要还原的话,需要有相同的环境,包括weed的运行环境以及相关的配置文件及配置文件依赖的各种key。 第二种方法是把所有的文件都存储到本地,即使后续没有weed的环境,也可以查询到相关的文件,但是因为文件的数量比较多,所以备份的速度非常慢,后续越多越慢。 但是第二种可以用增量的方式进行备份,即第一次的时候比较慢,但后续可以通过只备份压缩增量的减少压缩的时间。 |