安装FastDFS

本节使用docker安装FastDFS。

本节是在node01和node02两台主机上安装部署FastDFS双节点。
node01 ip:192.168.178.7 安装tracker1,storage1
node02 ip:192.168.178.10 安装tracker2,storage2

若要扩展更多tracker或storage节点,也是类似操作。

1. 拉取 fastdfs docker 镜像

docker pull morunchang/fastdfs

2. 安装fastdfs tracker

分别在node01和node02上安装tracker

在node01和node02上分别执行以下操作。

注:以下操作指令在node01中执行,在node02操作时,将tracker1改为tracker2。

(1) 创建文件夹

mkdir -p /apps/fastdfs/tracker1/data /apps/fastdfs/tracker1/conf

(2) FastDFS 跟踪器配置:tracker.conf

vim /apps/fastdfs/tracker1/conf/tracker.conf

配置文件内容

# 启动配置文件
disabled=false

# 绑定IP,常用于服务器有多个IP但只希望一个IP提供服务,如果不填则表示所有的(一般不填就OK)
bind_addr=

# 设置tracker的端口号
port=22122

# 连接超时时间,针对socket套接字函数connect
connect_timeout=30

# tracker server的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。 
network_timeout=30

# 设置tracker的数据文件和日志目录(需预先创建)
base_path=/data/fast_data

# 系统提供服务时的最大连接数。对于V1.x,因一个连接由一个线程服务,也就是工作线程数。
# 对于V2.x,最大连接数和工作线程数没有任何关系
max_connections=256

accept_threads=1

# V2.0引入的这个参数,工作线程数,通常设置为CPU数
work_threads=4

# 上传组(卷) 的方式 0:轮询方式 1: 指定组 2: 平衡负载(选择最大剩余空间的组(卷)上传)
# 这里如果在应用层指定了上传到一个固定组,那么这个参数被绕过
store_lookup=2

# 当上一个参数设定为1 时 (store_lookup=1,即指定组名时),必须设置本参数为系统中存在的一个组名。
# 如果选择其他的上传方式,这个参数就没有效了。
store_group=group1

# 选择哪个storage server 进行上传操作(一个文件被上传后,这个storage server就相当于这个文件的storage server源,会对同组的storage server推送这个文件达到同步效果)
# 0: 轮询方式 
# 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
# 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority) 
store_server=0

# 选择storage server 中的哪个目录进行上传。storage server可以有多个存放文件的base path(可以理解为多个磁盘)。
# 0: 轮流方式,多个目录依次存放文件
# 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
store_path=0

# 选择哪个 storage server 作为下载服务器 
# 0: 轮询方式,可以下载当前文件的任一storage server
# 1: 哪个为源storage server 就用哪一个 (前面说过了这个storage server源 是怎样产生的) 就是之前上传到哪个storage server服务器就是哪个了
download_server=0

# storage server 上保留的空间,保证系统或其他应用需求空间。可以用绝对值或者百分比(V4开始支持百分比方式)。
# (指出 如果同组的服务器的硬盘大小一样,以最小的为准,也就是只要同组中有一台服务器达到这个标准了,这个标准就生效,原因就是因为他们进行备份)
reserved_storage_space = 10%

# 选择日志级别
log_level=info

# 操作系统运行FastDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个)
run_by_group=

# 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
run_by_user=

# 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
allow_hosts=*

# 同步或刷新日志信息到硬盘的时间间隔,单位为秒
# 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
# 默认是10s
sync_log_buff_interval = 10

# 检测 storage server 存活的时间隔,单位为秒。
# storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。
check_active_interval = 120

# 线程栈的大小。FastDFS server端采用了线程方式。更正一下,tracker server线程栈不应小于64KB,不是512KB。
# 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程(V1.x对应的参数为max_connections,V2.0为work_threads),可以适当降低本参数值。
thread_stack_size = 64KB

# 这个参数控制当storage server IP地址改变时,集群是否自动调整。注:只有在storage server进程重启时才完成自动调整。
storage_ip_changed_auto_adjust = true

# V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
storage_sync_file_max_delay = 86400

# V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
storage_sync_file_max_time = 300

# V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
use_trunk_file = false

# the min slot size, should <= 4KB
# default value is 256 bytes
# since V3.00
# V3.0引入的参数。
# trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
slot_min_size = 256

# the max slot size, should > slot_min_size
# store the upload file to trunk file when it's size <=  this value
# default value is 16MB
# since V3.00
# V3.0引入的参数。
# 只有文件大小<=这个参数值的文件,才会合并存储。如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
slot_max_size = 16MB

# the trunk file size, should >= 4MB
# default value is 64MB
# since V3.00
# V3.0引入的参数。
# 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
trunk_file_size = 64MB

# default value is false
# 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
trunk_create_file_advance = false

# the time format: HH:MM
# default value is 02:00
# 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点。
trunk_create_file_time_base = 02:00

# default value is 38400 (one day)
# 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
trunk_create_file_interval = 86400

# default value is 0
# 提前创建trunk file时,需要达到的空闲trunk大小
# 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
trunk_create_file_space_threshold = 20G

# trunk初始化时,是否检查可用空间是否被占用
# 默认是false
trunk_init_check_occupying = false

# 是否无条件从trunk binlog中加载trunk可用空间信息
# FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
# 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
trunk_init_reload_from_binlog = false

trunk_compress_binlog_min_interval = 0

# 是否使用server ID作为storage server标识
use_storage_id = false

# since V4.00
# use_storage_id 设置为true,才需要设置本参数
# 在文件中设置组名、server ID和对应的IP地址
storage_ids_filename = storage_ids.conf

id_type_in_filename = ip

# default value is false
# since V4.01
# 存储从文件是否采用symbol link(符号链接)方式
# 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
store_slave_file_use_link = false

# default value is false
# since V4.02
# 是否定期轮转error log,目前仅支持一天轮转一次
rotate_error_log = false

# rotate error log time base, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
# default value is 00:00
# since V4.02
# error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
error_log_rotate_time=00:00

# rotate error log when the log file exceeds this size
# 0 means never rotates log file by log file size
# default value is 0
# since V4.02
# error log按大小轮转
# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
rotate_error_log_size = 0

# 保留日志文件的天数
# 0表示不删除旧的日志文件
# default值为0
log_file_keep_days = 0

# 如果使用连接池
# default value为false
# 从V4.05开始
use_connection_pool = false

# 空闲时间超过此时间的连接将被关闭
# unit:秒
# 默认值为3600
# 从V4.05开始
connection_pool_max_idle_time = 3600

# HTTP服务是否不生效 
http.disabled=false   
# 设置http端口号
http.server_port=8080

# check storage HTTP server alive interval seconds
# <= 0从不检查
# 默认值为30
http.check_alive_interval=30

# check存储HTTP服务器活动类型,值为:
# tcp:仅使用HTTP端口连接到storge服务器,
# 不要求并得到回复
# http:storage check alive url必须返回http状态200
# default value是tcp
http.check_alive_type=tcp

# 注意:存储嵌入HTTP服务器支持uri:/status.html
http.check_alive_uri=/status.html

# use "# include" directive to include http other settiongs
## include http.conf  #  如果加载http.conf的配置文件 去掉第一个# 

(3) 运行tracker1的docker容器

docker run -d --name tracker1 --net=host --restart always 
-v /etc/localtime:/etc/localtime 
-v /apps/fastdfs/tracker1/data:/data/fast_data/ 
-v /apps/fastdfs/tracker1/conf/tracker.conf:/etc/fdfs/tracker.conf 
morunchang/fastdfs sh tracker.sh

(4) 查看docker日志是否启动正常

docker logs tracker1

(5) 开启防火墙端口

# 开启防火墙端口:22122
# 编辑文件:-A INPUT -p tcp -m state --state NEW -m tcp --dport 22122 -j ACCEPT
vim /etc/sysconfig/iptables
# 重启防火墙
systemctl restart iptables.service

3. 安装fastdfs storage

在node01和node02上安装storage。

在node01和node02上分别执行以下操作
注意:以下操作指令在node01中执行,在node02操作时,将storage1改为storage2。

(1) 创建文件夹

mkdir -p /apps/fastdfs/storage1/data /apps/fastdfs/storage1/conf

(2) FastDFS 存储配置:storage.conf

vim /apps/fastdfs/storage1/conf/storage.conf

配置内容

# false为生效,true不生效
disabled=false

# 指定此 storage server 所在组(卷)
# 如果注释或者删除这个参数,而从tracker那里获取分组信息
# 则 use_storage_id参数必须设为true 在 tracker.conf 配置文件中
# storage_ids.conf文件必须正确配置
group_name=group1

# 绑定ip地址,空值为主机上全部地址
# bind_addr通常是针对server的。当指定bind_addr时,本参数才有效。
# 本storage server作为client连接其他服务器(如tracker server、其他storage server),是否绑定bind_addr。
bind_addr=

client_bind=true

# 存储服务端口
port=23002

# 连接超时时间,针对socket套接字函数connect
# 默认是30s
connect_timeout=30

# storage server 网络超时时间,单位为秒。发送或接收数据时,
# 如果在超时时间后还不能发送或接收数据,则本次网络通信失败
# 默认是30s
network_timeout=30

# 心跳间隔时间,单位为秒 (这里是指主动向tracker server 发送心跳)
heart_beat_interval=30

# storage server向tracker server报告磁盘剩余空间的时间间隔,单位为秒
stat_report_interval=60

# storage存储data和log的根路径,必须提前创建好
base_path=/data/fast_data

# 服务器支持的最大并发连接
# 默认为256
# 更大的值 意味着需要使用更大的内存
max_connections=256

# 发送/接收 数据的缓冲区大小
# 此参数必须大于8KB
# 设置队列结点的buffer大小。工作队列消耗的内存大小 = buff_size * max_connections
# 设置得大一些,系统整体性能会有所提升。
# 消耗的内存请不要超过系统物理内存大小。另外,对于32位系统,请注意使用到的内存不要超过3GB
buff_size = 256KB

# 接受线程数  默认为1 
accept_threads=1

# V2.0引入的这个参数,工作线程数 <=max_connections
# 此参数 处理 网络的 I/O
# 通常设置为CPU数
work_threads=4

# 磁盘是否 读写分离
# false为读写混合  true为读写分离
# 默认读写分离
disk_rw_separated = true

# 针对每个个存储路径的读线程数,缺省值为1
# 读写混合时 此值设为0
# 读写分离时,系统中的读线程数 = disk_reader_threads * store_path_count
# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count
disk_reader_threads = 1

# 针对每个个存储路径的写线程数,缺省值为1
# 读写混合时 此值设为0
# 读写分离时,系统中的写线程数 = disk_writer_threads * store_path_count
# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count
disk_writer_threads = 1

# 同步文件时,如果从binlog中没有读到要同步的文件,休眠N毫秒后重新读取。0表示不休眠,立即再次尝试读取。
# 出于CPU消耗考虑,不建议设置为0。如何希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为10ms
# 必须 > 0, 默认值是200ms
sync_wait_msec=50

# 同步上一个文件后,再同步下一个文件的时间间隔,单位为毫秒,0表示不休眠,直接同步下一个文件
sync_interval=0

# 时间格式:Hour:Minute
# 存储每天同步的开始时间 (默认是00:00开始) 
# 一般用于避免高峰同步产生一些问题而设定
sync_start_time=00:00

# 时间格式:Hour:Minute
# 存储每天同步的结束时间 (默认是23:59结束) 
# 一般用于避免高峰同步产生一些问题而设定
sync_end_time=23:59

# 同步完N个文件后,把storage的mark文件同步到磁盘
# 注:如果mark文件内容没有变化,则不会同步
write_mark_file_freq=500

# 存放文件时storage server支持多个路径(例如磁盘)
# 这里配置存放文件的基路径数目,通常只配一个目录
store_path_count=1

# 逐一配置store_path的路径,索引号基于0。注意配置方法后面有0,1,2 ......,需要配置0到store_path - 1。
# 如果不配置base_path0,那边它就和base_path对应的路径一样。
# 路径必须存在
store_path0=/data/fast_data

# N*N 个 目录会自动创建 在 每个磁盘路径下
# 值 可以设为1-256 默认256
# FastDFS存储文件时,采用了两级目录。这里配置存放文件的目录个数 (系统的存储机制)
# 如果本参数只为N(如:256),那么storage server在初次运行时,会自动创建 N * N 个存放文件的子目录。
subdir_count_per_path=256

# tracker_server 的地址列表 要写端口的 (再次提醒是主动连接tracker_server )
# 有多个tracker server时,每个tracker server写一行
tracker_server=192.168.178.7:22122
tracker_server=192.168.178.10:22122

# 日志级别
log_level=debug

# 操作系统运行FastDFS的用户组 (不填就是当前用户组,哪个启动进程就是哪个)
run_by_group=

# 操作系统运行FastDFS的用户 (不填就是当前用户,哪个启动进程就是哪个)
run_by_user=

# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
# host[01-08,20-25].domain.com, for example:
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
# 允许连接本storage server的IP地址列表 (不包括自带HTTP服务的所有连接)
# 可以配置多行,每行都会起作用
allow_hosts=*

# 文件在data目录下分散存储策略。
# 0: 轮流存放,在一个目录下存储设置的文件数后(参数file_distribute_rotate_count中设置文件数),使用下一个目录进行存储。
# 1: 随机存储,根据文件名对应的hash code来分散存储
file_distribute_path_mode=0

# 当上面的参数file_distribute_path_mode配置为0(轮流存放方式)时,本参数有效。
# 当一个目录下的文件存放的文件数达到本参数值时,后续上传的文件存储到下一个目录中。
file_distribute_rotate_count=100

# 当写入大文件时,每写入N个字节,调用一次系统函数fsync将内容强行同步到硬盘。0表示从不调用fsync  
# 其它值表示 写入字节为此值时,调用fsync函数
fsync_after_written_bytes=0

# 同步或刷新日志信息到硬盘的时间间隔,单位为秒
# 注意:storage server 的日志信息不是时时写硬盘的,而是先写内存
sync_log_buff_interval=10

# 同步binglog(更新操作日志)到硬盘的时间间隔,单位为秒
# 本参数会影响新上传文件同步延迟时间
sync_binlog_buff_interval=10

# 把storage的stat文件同步到磁盘的时间间隔,单位为秒。
# 注:如果stat文件内容没有变化,不会进行同步
sync_stat_file_interval=300

# 线程栈的大小。FastDFS server端采用了线程方式。
# 对于V1.x,storage server线程栈不应小于512KB;对于V2.0,线程栈大于等于128KB即可。
# 线程栈越大,一个线程占用的系统资源就越多。
# 对于V1.x,如果要启动更多的线程(max_connections),可以适当降低本参数值。
thread_stack_size=512KB

# 本storage server作为源服务器,上传文件的优先级
# 可以为负数。值越小,优先级越高
# 这里就和 tracker.conf 中store_server= 2时的配置相对应了 
upload_priority=10

# 网卡别名前缀 在linux上 你可以通过ifconfig -a 看到它
# 多个别名需要用逗号隔开
# 空值表示根据操作系统类型自动设置
if_alias_prefix=

### 去重配置 ###
# 是否检测上传文件已经存在。如果已经存在,则不存储文件内容
# FastDHT 建立一个符号链接 以节省磁盘空间。 
# 这个应用要配合FastDHT 使用,所以打开前要先安装FastDHT 
# 1或yes 是检测, 0或no 是不检测
check_file_duplicate=0

# 检查文件重复时,文件内容的签名方式:
# hash: 4个hash code
# md5:MD5
file_signature_method=hash

# 存储文件符号连接的命名空间
# check_file_duplicate 参数必须设置为  true / on
key_namespace=FastDFS

# 与FastDHT servers 的连接方式 (是否为持久连接) ,默认是0(短连接方式)
# 可以考虑使用长连接(值为1),这要看FastDHT server的连接数是否够用
keep_alive=0

### 日志配置 ###
# 是否将文件操作记录到access log
use_access_log = true

# 是否定期轮转access log,目前仅支持一天轮转一次
rotate_access_log = false

# 时间格式:Hour:Minute
# access log定期轮转的时间点,只有当rotate_access_log设置为true时有效
access_log_rotate_time=00:00

# 是否定期轮转error log,目前仅支持一天轮转一次
rotate_error_log = false

# 时间格式:Hour:Minute
# error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
error_log_rotate_time=00:00

# access log按文件大小轮转
# 设置为0表示不按文件大小轮转,否则当access log达到该大小,就会轮转到新文件中
rotate_access_log_size = 0

# error log按文件大小轮转
# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
rotate_error_log_size = 0

# 是否保留日志文件
# 0 为不删除旧日志文件
log_file_keep_days = 0

# 文件同步的时候,是否忽略无效的binlog记录
file_sync_skip_invalid_record=false

# 是否使用连接池
use_connection_pool = false

# 关闭 闲置连接的 时间
# 默认3600秒
connection_pool_max_idle_time = 3600

# 如果存储服务器域名是空的 则使用ip地址
# storage server上web server域名,通常仅针对单独部署的web server
# 这样URL中就可以通过域名方式来访问storage server上的文件了
# 这个参数为空就是IP地址的方式。
http.domain_name=

# 存储服务器 使用的web端口 
http.server_port=9101

(3) nginx配置文件

vim /apps/fastdfs/storage1/conf/nginx.conf

配置文件内容:

worker_processes  1;
error_log  /data/fast_data/logs/nginx-error.log;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /data/fast_data/logs/nginx-access.log  main;
    sendfile        on;
    keepalive_timeout  65;

    server {
        #监听的端口, 与storage.conf中的http.server_port值一致
        listen       9101;
        #nginx安装机器的ip,可以是具体的ip,也可以是localhost
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }

        location ~ /group1/M00 {
                    #/data/fast_data与图片上传的路径一致
                    root /data/fast_data/data;
                    ngx_fastdfs_module;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

(4) fastdfs-nginx-module 配置文件:mod_fastdfs.conf

vim /apps/fastdfs/storage1/conf/mod_fastdfs.conf

内容:

connect_timeout=30
network_timeout=30
base_path=/data/fast_data
load_fdfs_parameters_from_tracker=true
storage_sync_file_max_delay = 86400
use_storage_id = false
storage_ids_filename = storage_ids.conf
# tracker 服务器的 IP 地址以及端口号
tracker_server=192.168.178.7:22122
tracker_server=192.168.178.10:22122

# storage 服务器的端口号
storage_server_port=23002

# 当前服务器的 group 名
group_name=group1

# 文件 url 中是否有 group 名
url_have_group_name = true

# 存储路径个数,需要和 store_path 个数匹配
store_path_count=1

# 存储路径
store_path0=/data/fast_data
# 日志级别
log_level=info
log_filename=
response_mode=proxy
if_alias_prefix=
flv_support = true
flv_extension = flv

# 设置组的个数
# set the group count
# set to none zero to support multi-group
# set to 0  for single group only
# groups settings section as [group1], [group2], ..., [groupN]
# default value is 0 # since v1.14
group_count = 0

#include http.conf

(5) 写入/apps/fastdfs/storage1/conf/storage.sh

#!/bin/sh
/data/fastdfs/storage/fdfs_storaged /etc/fdfs/storage.conf
/etc/nginx/sbin/nginx
tail -f /data/fast_data/logs/storaged.log

(6) FastDFS 客户端配置:client.conf

vim /apps/fastdfs/storage1/conf/client.conf

内容为:

# connect timeout in seconds
# default value is 30s
connect_timeout=30

# network timeout in seconds
# default value is 30s
network_timeout=30

# the base path to store log files
base_path=/data/fastdfs/test

# tracker_server can ocur more than once, and tracker_server format is
#  "host:port", host can be hostname or ip address

tracker_server=192.168.178.7:22122
tracker_server=192.168.178.10:22122

#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info

# if use connection pool
# default value is false
# since V4.05
use_connection_pool = false

# connections whose the idle time exceeds this time will be closed
# unit: second
# default value is 3600
# since V4.05
connection_pool_max_idle_time = 3600

# if load FastDFS parameters from tracker server
# since V4.05
# default value is false
load_fdfs_parameters_from_tracker=false

# if use storage ID instead of IP address
# same as tracker.conf
# valid only when load_fdfs_parameters_from_tracker is false
# default value is false
# since V4.05
use_storage_id = false

# specify storage ids filename, can use relative or absolute path
# same as tracker.conf
# valid only when load_fdfs_parameters_from_tracker is false
# since V4.05
storage_ids_filename = storage_ids.conf

#HTTP settings
http.tracker_server_port=80

#use "#include" directive to include HTTP other settiongs
##include http.conf

(7) 运行docker容器

docker run -d --name storage1 --net=host --restart always 
-v /etc/localtime:/etc/localtime 
-v /apps/fastdfs/storage1/data:/data/fast_data/ 
-v /apps/fastdfs/storage1/conf/storage.sh:/storage.sh 
-v /apps/fastdfs/storage1/conf/storage.conf:/etc/fdfs/storage.conf 
-v /apps/fastdfs/storage1/conf/nginx.conf:/etc/nginx/conf/nginx.conf  
-v /apps/fastdfs/storage1/conf/mod_fastdfs.conf:/etc/fdfs/mod_fastdfs.conf 
-v /apps/fastdfs/storage1/conf/client.conf:/data/fastdfs/conf/client.conf 
morunchang/fastdfs sh storage.sh

(8) 查看docker日志是否正常

docker logs storage1

(9) 开启防火墙端口:23002、9101

# 开启防火墙端口:23002、9101
# -A INPUT -p tcp -m state --state NEW -m tcp --dport 23002 -j ACCEPT
# -A INPUT -p tcp -m state --state NEW -m tcp --dport 9101 -j ACCEPT
vim /etc/sysconfig/iptables
# 重启防火墙
systemctl restart iptables.service

4. 验证fastdfs是否安装成功

说明:以下操作在node01中进行。

(1) 查看FastDFS监控状态

docker exec -it storage1 fdfs_monitor /data/fastdfs/conf/client.conf

参数说明:

tracker_server_count:2 --表示2个Tracker Server
tracker server is 198.168.1.121:22122 --表示Leader Tracker
group count: 1 --表示有1个group
group name = group1 --组名称是group1
storage server count = 2 --组内有2个storage
active server count = 2 --活动的storage有2个
storage server port = 23002 --storage的端口
storage HTTP port = 9101 --storage的文件访问端口
store path count = 1 --storage只挂了一个存储目录
total_upload_count = 11 --总共上传了多少个文件
total_upload_bytes = 691405 --总共上传了多少字节
success_upload_bytes = 691405 --成功上传了多少字节
total_download_count = 2 --总共下载了多少文件(使用java客户端)

(2) 上传文件到FastDFS

docker exec -it storage1 bash
cd /data/fastdfs/conf
# anti-steal.jpg是/data/fastdfs/conf目录下的一个文件
fdfs_test client.conf upload anti-steal.jpg

文件上传成功后,会提示文件访问地址,同时会自动同步到storage2,因此也可以通过storage2的IP,访问文件。

由于storage1的http端口配置为9101,所以真正的访问地址是:

(示例地址)http://192.168.178.7:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg
storage2的访问地址是:
(示例地址)http://192.168.178.10:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg

(3) 下载文件

curl http://192.168.178.7:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg
curl http://192.168.178.10:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg

能下载文件就表示fastdfs同步文件成功,也表示fastdfs安装配置成功。

(4) 统计Storage文件数量

进入storage的data目录,执行以下指令:

cd /apps/fastdfs/storage1/data/data
ls -lR|grep "^-"|wc -l

或者进入data目录下的sync目录,执行以下指令:

cat binlog.000 | wc -l

binlog.000保存了storage中所有文件名。

原文地址:https://www.cnblogs.com/myitnews/p/12214571.html