查看卷信息

gluster volume info

为存储池添加/移除服务器节点

在其中一个节点上操作即可:
# gluster peer probe <SERVER>
# gluster peer detach <SERVER>
注意,移除节点时,需要提前将该节点上的Brick移除。

查看所有节点的基本状态(显示的时候不包括本节点):
# gluster peer status

挂载分区

# mount -t ext4 /dev/sdd1 /mnt/brick1

创建/启动/停止/删除卷

# gluster volume create <NEW-VOLNAME>[stripe <COUNT> | replica <COUNT>] [transport [tcp | rdma | tcp,rdma]] <NEW-BRICK1> <NEW-BRICK2> <NEW-BRICK3> <NEW-BRICK4>...
# gluster volume start <VOLNAME>
# gluster volume stop <VOLNAME>
# gluster volume delete <VOLNAME>

注意,删除卷的前提是先停止卷。

客户端以glusterfs方式挂载

# mount -t glusterfs <SERVER>:/<VOLNAME><MOUNTDIR>
对于OpenStack,计算和控制节点都要挂载/var/lib/nova/instances,控制节点还要挂载/var/lib/glance/images。

查看卷信息

列出集群中的所有卷:
# gluster volume list

查看集群中的卷信息:
# gluster volume info [all]

查看集群中的卷状态:
# gluster volume status [all]
# gluster volume status <VOLNAME> [detail| clients | mem | inode | fd]

查看本节点的文件系统信息:
# df -h [<MOUNT-PATH>]

查看本节点的磁盘信息:
# fdisk -l

配置卷

# gluster volume set <VOLNAME> <OPTION> <PARAMETER>

扩展卷

# gluster volume add-brick <VOLNAME> <NEW-BRICK>
注意,如果是复制卷或者条带卷,则每次添加的Brick数必须是replica或者stripe的整数倍。

收缩卷

先将数据迁移到其它可用的Brick,迁移结束后才将该Brick移除:
# gluster volume remove-brick <VOLNAME> <BRICK> start

在执行了start之后,可以使用status命令查看移除进度:
# gluster volume remove-brick <VOLNAME> <BRICK> status

不进行数据迁移,直接删除该Brick:
# gluster volume remove-brick <VOLNAME> <BRICK> commit

注意,如果是复制卷或者条带卷,则每次移除的Brick数必须是replica或者stripe的整数倍。

12.迁移卷

使用start命令开始进行迁移:
# gluster volume replace-brick <VOLNAME> <BRICK> <NEW-BRICK> start

在数据迁移过程中,可以使用pause命令暂停迁移:
# gluster volume replace-brick <VOLNAME> <BRICK> <NEW-BRICK> pause

在数据迁移过程中,可以使用abort命令终止迁移:
# gluster volume replace-brick <VOLNAME> <BRICK> <NEW-BRICK> abort

在数据迁移过程中,可以使用status命令查看迁移进度:
# gluster volume replace-brick <VOLNAME> <BRICK> <NEW-BRICK> status

在数据迁移结束后,执行commit命令来进行Brick替换:
# gluster volume replace-brick <VOLNAME> <BRICK> <NEW-BRICK> commit

重新均衡卷

不迁移数据:

# gluster volume rebalance <VOLNAME> lay-outstart
# gluster volume rebalance <VOLNAME> start
# gluster volume rebalance <VOLNAME> startforce
# gluster volume rebalance <VOLNAME> status
# gluster volume rebalance <VOLNAME> stop

系统扩展维护

开启/关闭系统配额:
# gluster volume quota <VOLNAME> enable | disable

设置目录配额:
# gluster volume quota <VOLNAME> limit-usage <DIR> <VALUE>

查看配额:
# gluster volume quota <VOLNAME> list [<DIR>]

地域复制(geo-replication):
# gluster volume geo-replication <MASTER> <SLAVE> start | status | stop

IO信息查看:
# gluster volume profile <VOLNAME> start | info | stop

Top监控:
Top命令允许你查看Brick的性能,例如:read,write, file open calls, file read calls, file write calls, directory opencalls, and directory real calls。所有的查看都可以设置 top数,默认100。

查看打开的 fd:
# gluster volume top <VOLNAME> open[brick <BRICK>] [list-cnt <COUNT>]

其中,open可以替换为read, write, opendir, readdir等。
查看每个 Brick 的读性能:

# gluster volume top <VOLNAME> read-perf [bs <BLOCK-SIZE> count <COUNT>] [brick <BRICK>] [list-cnt <COUNT>]

其中,read-perf可以替换为write-perf等。

GlusterFS优化

# 设置 cache 大小, 默认32MB
gluster volume set senyintvolume performance.cache-size 4GB

# 设置 io 线程, 太大会导致进程崩溃
gluster volume set senyintvolume performance.io-thread-count 16

# 设置 网络检测时间, 默认42s
gluster volume set senyintvolume network.ping-timeout 10

# 设置 写缓冲区的大小, 默认1M
gluster volume set senyintvolume performance.write-behind-window-size 1024MB

# 开启 指定 volume 的配额,不使用
gluster volume quota k8s-volume enable

# 限制 指定 volume 的配额,不使用
gluster volume quota k8s-volume limit-usage / 1TB

操作示例

强制创建卷
gluster volume create testvol ip:/date/brick1 ip:/date/brick2 force
磁盘限额
to quota glusterfs
主要是对挂载点下的某个目录进行空间限额(对客户端下某个目录限制,而不是对组成的空间进行的限制 如:server1目录、server2目录)

#gluster volume quota test-volume enable 激活quota功能

#gluster volume quota test-volume disable 关闭quota功能

#gluster volume quota test-volume limit-usage /data 10GB           ---/exp2/data 目录限制

#gluster volume quota test-volume list         ---quota信息列表

#gluster volume set test-volume features.quota-timeout 5  设置信息的超时时间

#gluster volume quota test-volume remove  /data  删除某个目录的quota设置
添加存储节点
#gluster peer probe server4   向turst pool  添加新server4

#gluster volume add-brick test-volume server4:/server4  卷组添加新空间

gluster volume info 查看当前所有volume状态

#gluster volume rebalance test-volume start          对扩容后的卷组进行rebalance

#gluster volume rebalance test-volume status

#gluster volume rebalance test-volume stop
glusterfs的参数进行设置优化
#gluserfs volume set test-volume performance.cache-size 256M
删除GlusterFS磁盘:
# gluster volume stop datavolume1
# gluster volume delete datavolume1
卸载GlusterFS磁盘:
# gluster peer detach idc1-server4
ACL访问控制:
# gluster volume set datavolume1 auth.allow 10.100.1.*,10.200.1.*
添加GlusterFS节点:
# gluster peer probe idc1-server5

# gluster peer probe idc1-server6

# gluster volume add-brick datavolume1 idc1-server5:/usr/local/share/datavolume1 idc1-server6:/usr/local/share/datavolume1
迁移GlusterFS磁盘数据:
# gluster volume remove-brick datavolume1 idc1-server1:/usr/local/share/datavolume1 idc1-server5:/usr/local/share/datavolume1 start

# gluster volume remove-brick datavolume1 idc1-server1:/usr/local/share/datavolume1 idc1-server5:/usr/local/share/datavolume1 status

# gluster volume remove-brick datavolume1 idc1-server1:/usr/local/share/datavolume1 idc1-server5:/usr/local/share/datavolume1 commit
数据重新分配:
# gluster volume rebalance datavolume1 start

# gluster volume rebalance datavolume1 status

# gluster volume rebalance datavolume1 stop
修复GlusterFS磁盘数据(例如在idc1-server1宕机的情况下):
# gluster volume replace-brick datavolume1 idc1-server1:/usr/local/share/datavolume1 idc1-server5:/usr/local/share/datavolume1 commit -force

# gluster volume heal datavolume1 full