Glusterfs文件夹ls性能优化方案分析

目的和优化思路

讨论了glusterfs对文件系统爬虫rsync/ls文件夹性能的现有优化措施和可能的进一步优化方案。优化思路是降低本地文件系统的元数据操作,降低fuse client的负载。降低req的网络轮询次数,降低一次网络通信时间。缓存预抓取。并发。异步。bulk 传输

fuse readdirplus

centos 6.4最新内核,支持fuse readdirplus。

微调mount timeout參数。

readdir-ahead

这个已经合并到3.5release以后了。主要进行了单线程ls顺序文件夹读的优化。通过在opendir时(在运行回调时)去提前抓取文件夹项作为缓存,同一时候也会在glusterfs readdirplus支持(内核和glusterfs fuse都支持)的情况下。抓取文件夹项的inode属性和扩展属性,readdir(p)时能够直接返回或者此时抓取文件夹项缓存。

基于fuse readdirplus性能会更加优化。基于fd生命周期进行的缓存。功能还非常不强大。须要强化。

FUSE_AUTO_INVAL_DATA

依据内核FUSE_AUTO_INVAL_DATA支持,启用--fopen-keep-cache mount选项。 新内核版本号支持。glusterfs fuse默认行为是写操作是同步的。读文件操作从page cache中读。当打开一个文件时。失效原来file的page cache。启用此选项后。就能够依据须要。假设原来file page cache 内容没变,就不进行失效操作。

quick-read

glusterfs3.4把quick-read(3.3就这一个translaotr)分解为openbehind和quick-read。

原来设计无论操作文件的目的是什么。都要获取真正的fd。重构后。能够依据文件操作目的。假设是改动文件内容。就在背景打开文件并进行操作。

假设不过fstat等类似操作,就利用匿名fd来进行。不会等待真正的fd。

这样依据操作目的,优化了性能。

在lookup时依据须要,设置xdata key,在posix translator层就抓取文件内容。

read操作运行到quick-read层时就返回文件内容。

md-cache

主要是inode attr和xattr在readdir (p)时抓取;lookup仅仅抓取当时操作的文件夹或文件的inode属性。而不是全部文件夹项。这个translator能够对ls时候对stat和扩展属性抓取导致的延迟进行优化。

但眼下我们一般关闭selinux和acl扩展属性支持,所以扩展属性的ls优化临时不起作用。

其它可能影响的translator。有待分析

  • io-threads server和client设置

  • libaio

  • scatter-gather IO

进一步的优化方向

  • fuse内核当前支持4k readdir buffer大小。

    能够改动内核代码支持较大chunk的buffer。readdir-ahead就是用一个glusterfs rpc 128k buffer进行了bulk获取。但也不过在用户空间进行了预抓取。

    Brian Foster进行了这方面的优化实验。

  • 强化readdir-ahead,做成一个强大的client缓存架构,先做文件夹项缓存,后面再考虑其它的。

    • 多线程,非顺序文件夹读的情况

    • 缓存基于inode。进行持久缓存

    • Xavier Hernandez提出了代替inodelk/entrylk的一种无锁架构。有助于在client实现一个强大的缓存。

      眼下社区已经进行了一次讨论缓存架构的头脑风暴。

      正在跟进。

    • dht读文件夹本来就是顺序(一个一个brick进行读取),应该分析能否够放宽这种限制

  • 小文件合并为大文件的transtlaotr。

    这个能够參考hystack和tfs的实现。

  • 參考hdfs的中央缓存架构,不在client做真正的缓存。而在brick端缓存,client仅仅做路由。或者client和brick都做缓存。

  • 分层存储。

    这个glusters 已经在開始做了。

參考资料

gluster maillist,irc,code,review。


原文地址:https://www.cnblogs.com/wgwyanfs/p/7098717.html