阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

FastDFS分布式文件系统集群安装与配置

194次阅读
没有评论

共计 17243 个字符,预计需要花费 44 分钟才能阅读完成。

FastDFS 集群规划

跟踪服务器负载均衡节点 1:192.168.1.206 dfs-nginx-proxy-1
跟踪服务器负载均衡节点 2:192.168.1.207 dfs-nginx-proxy-2
跟踪服务器 1:192.168.1.200 dfs-tracker-1
跟踪服务器 2:192.168.1.201 dfs-tracker-2
存储服务器 1:192.168.1.202 dfs-storage-group1-1
存储服务器 2:192.168.1.203 dfs-storage-group1-2
存储服务器 3:192.168.1.204 dfs-storage-group2-1
存储服务器 3:192.168.1.205 dfs-storage-group2-2
HA 虚拟 IP:192.168.1.208
HA 软件:Keepalived
操作系统:CentOS 7
用户:root
数据目录:/fastdfs

安装包:
fastdfs-master-V5.05.zip:FastDFS 源码
libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)
fastdfs-nginx-module-master.zip:storage 节点 http 服务 nginx 模块
nginx-1.10.0.tar.gz:Nginx 安装包
ngx_cache_purge-2.3.tar.gz:Nginx 图片缓存清除模块
获取安装包的方式:
1> 从这里下载打包好的所有安装包见上一篇的链接  http://www.linuxidc.com/Linux/2017-02/140419.htm
2> 从作者 github 官网挨个下载 fastdfs 源码及其依赖库:https://github.com/happyfish100 和 Nginx 缓存清除模块:https://github.com/FRiCKLE/ngx_cache_purge

开始前,先将所有安装包下载到各个节点的 /usr/local/src 目录中。

1> 本文称节点 IP 最后一段就代表某个节点,如:192.168.1.206,文中提到 206 节点,就代表 192.168.1.206。
2> 本文称 tracker 或跟踪服务器是同一个意思
3> 本文称 storage 或存储服务器是同一个意思

FastDFS 集群架构图

FastDFS 分布式文件系统集群安装与配置

外部统一访问 192.168.1.208 这个虚拟 IP,来访问集群中各节点的文件。

CentOS6 环境单服务器 FastDFS+Nginx+fastdfs-nginx-module 安装配置 http://www.linuxidc.com/Linux/2015-01/111889.htm

Ubuntu 14.04 下部署 FastDFS 5.08+Nginx 1.9.14 http://www.linuxidc.com/Linux/2016-07/133485.htm

CentOS 6.2 下 fastDFS 的完整安装和配置步骤 http://www.linuxidc.com/Linux/2012-12/75989.htm

FastDFS 在 Ubuntu 下的安装,PHP 客户端 http://www.linuxidc.com/Linux/2012-09/71459.htm

FastDFS 分布式文件服务器安装,及配置,测试 http://www.linuxidc.com/Linux/2012-09/71458.htm

CentOS 7 安装配置分布式文件系统 FastDFS 5.0.5  http://www.linuxidc.com/Linux/2016-09/135537.htm

FastDFS 分布式存储服务器安装过程详解 http://www.linuxidc.com/Linux/2016-10/136544.htm

FastDFS 之文件服务器集群部署详解 http://www.linuxidc.com/Linux/2017-01/139891.htm

一、安装集群节点

所有 跟踪服务器和存储服务器节点上执行以下操作,即:200 ~ 205 节点

1> 安装所需的依赖包

shell> yum install make cmake gcc gcc-c++

2> 安装 libfatscommon

shell> cd /usr/local/src
shell> unzip libfastcommon-master.zip
shell> cd libfastcommon-master
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

3> 安装 FastDFS

shell> cd /usr/local/src
shell> unzip fastdfs-master-V5.05.zip
shell> cd fastdfs-master
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

安装细节可参考上一篇文章《FastDFS 分布式文件系统安装与使用(单节点)》中的第一节。

二、配置跟踪节点(192.168.1.200,192.168.1.201)

说明:每个节点执行相同的操作

1> 复制 tracker 样例配置文件,并重命名

shell> cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf

2> 修改 tracker.conf 配置文件

shell> vim /etc/fdfs/tracker.conf
# 修改的内容如下:
disabled=false              # 启用配置文件
port=22122                  # tracker 服务器端口(默认 22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录

其它参数保留默认配置,具体配置解释可参考官方文档说明:http://www.linuxidc.com/Linux/2017-02/140416.htm

3> 创建 base_path 指定的目录

shell> mkdir -p /fastdfs/tracker

4> 防火墙中打开 tracker 服务器端口(默认为 22122)

shell> vi /etc/sysconfig/iptables
添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT
重启防火墙:
shell> service iptables restart

5> 启动 tracker 服务器

shell> /etc/init.d/fdfs_trackerd start

初次启动,会在 /fastdfs/tracker 目录下生成 logs、data 两个目录:
FastDFS 分布式文件系统集群安装与配置

检查 FastDFS Tracker Server 是否启动成功:ps -ef | grep fdfs_trackerd
FastDFS 分布式文件系统集群安装与配置

6> 停止 tracker 服务器

shell> /etc/init.d/fdfs_trackerd stop

7> 设置 tracker 服务开机启动

shell> chkconfig fdfs_trakcerd on

三、配置存储节点

group1: 192.168.1.202,192.168.1.203
group2: 192.168.1.204,192.168.1.205

说明:每个节点执行相同的操作

1> 复制 storage 样例配置文件,并重命名

shell> cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf

2> 编辑配置文件

shell> vi /etc/fdfs/storage.conf

# 修改的内容如下:
disabled=false                      # 启用配置文件
port=23000                          # storage 服务端口
group_name=group1                   # 组名(第一组为 group1,第二组为 group2,依次类推...)
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录,第二个存储目录起名为:store_path1=xxx,其它存储目录名依次类推...
store_path_count=1                  # 存储路径个数,需要和 store_path 个数匹配
tracker_server=192.168.0.200:22122  # tracker 服务器 IP 和端口
tracker_server=192.168.0.201:22122  # tracker 服务器 IP 和端口
http.server_port=8888               # http 访问文件的端口

其它参数保留默认配置,具体配置解释可参考官方文档说明:http://www.linuxidc.com/Linux/2017-02/140416.htm

3> ���建基础数据目录

shell> mkdir -p /fastdfs/storage

4> 防火墙中打开 storage 服务器端口(默认为 23000)

shell> vi /etc/sysconfig/iptables
添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
重启防火墙:
shell> service iptables restart

5> 启动 storage 服务器

shell> /etc/init.d/fdfs_storaged start

初次启动,会在 /fastdfs/storage 目录下生成 logs、data 两个目录。
FastDFS 分布式文件系统集群安装与配置

检查 FastDFS Tracker Server 是否启动成功:
ps -ef | grep fdfs_storaged
FastDFS 分布式文件系统集群安装与配置
各节点启动后,使用 tail -f /fastdfs/storage/logs/storaged.log 命令监听存储节点的日志,可以看到存储节点链接到跟踪服务器,并提示哪一个为 leader 跟踪服务器,同时也能看到同一组中其它节点加入进来的日志信息。

所有存储节点都启动之后,可以在任一存储节点上使用如下命令查看集群的状态信息:

shell> /usr/bin/fdfs_monitor /etc/fdfs/storage.conf

6> 停止 storage 服务器

shell> /etc/init.d/fdfs_storaged stop

7> 设置 storage 服务开机启动

shell> chkconfig fdfs_storaged on

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2017-02/140420p2.htm

四、文件上传测试

1> 修改 tracker 服务器 client.conf 配置文件

shell> cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
shell> vi /etc/fdfs/client.conf
base_path=/fastdfs/tracker
tracker_server=192.168.1.200:22122
tracker_server=192.168.1.201:22122

2> 执行文件上传命令

shell> /usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz

返回以下 ID 号,说明文件上传成功:
group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
(从返回的 ID 号中也可以看出,同一个文件分别存储在两个组内 group1 和 group2,但也有可能在同一组中,具体策略是由 FastDFS 根据服务器的存储情况来分配的)

五、存储节点安装 Nginx 和 fastdfs-nginx-module 模块

说明:每个节点执行相同的操作

1> fastdfs-nginx-module 作用说明

FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制流程,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 192.168.1.202,上传成功后文件 ID 已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.1.203,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.1.203 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器(192.168.1.202)上取文件,避免客户端由于复制延迟导致的文件无法访问错误。

2> 安装 nginx 和 fastdfs-nginx-module 模块

## 安装 nginx 所需的依赖包
shell> yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel
## 编译安装 nginx(添加 fastdfs-nginx-module 模块)
shell> cd /usr/local/src
shell> tar -zxvf nginx-1.10.0.tar.gz
shell> unzip fastdfs-nginx-module-master.zip
shell> cd nginx-1.10.0
shell> ./configure --prefix=/opt/nginx --sbin-path=/usr/bin/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src
shell> make && make install

3> 复制 fastdfs-nginx-module 源码中的配置文件到 /etc/fdfs 目录,并修改

shell> cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
shell> vi /etc/fdfs/mod_fastdfs.conf

第一组存储服务器的 mod_fastdfs.conf 配置

connect_timeout=10
base_path=/tmp
tracker_server=192.168.1.200:22122
tracker_server=192.168.1.201:22122
storage_server_port=23000
group_name=group1                       # 第一组 storage 的组名
url_have_group_name=true
store_path0=/fastdfs/storage
group_count=2
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage

第二组存储服务器的 mod_fastdfs.conf 配置

第二组的 mod_fastdfs.confg 配置与第一组的配置只有 group_name 不同:
group_name=group2

4> 复制 FastDFS 源文件目录中 HTTP 相关的配置文件到 /etc/fdfs 目录

shell> cd /usr/local/src/FastDFS/conf
shell> cp http.conf mime.types /etc/fdfs/

5> 创建数据存放目录的软链接

shell> ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00

6> 配置 fastdfs-nginx-module(Nginx 简洁版样例)

shell> vi /opt/nginx/conf/nginx.conf
user nobody;
worker_processes 1;
events {worker_connections  1024;
}
http {include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {listen       8888;
        server_name  localhost;

        # FastDFS 文件访问配置(fastdfs-nginx-module 模块)
        location ~/group([0-9])/M00 {ngx_fastdfs_module;
        }

        error_page 500 502 503 504 /50x.html;
        location = /50x.html {root   html;
        }   
    }
}

注意:
A、8888 端口值要与 /etc/fdfs/storage.conf 中的 http.server_port=8888 相对应,因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。
B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如:http://xxxx/group1/M00/00/00/xxx, 对应的 Nginx 配置为:

location ~/group([0-9])/M00 {ngx_fastdfs_module;}

C、如下载时如发现老报 404,将 nginx.conf 第一行 user nobody; 修改为 user root; 后重新启动。

7> 防火墙中打开 Nginx 的 8888 端口

shell> vi /etc/sysconfig/iptables
## 添加
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
## 重启防火墙
shell> service iptables restart

8> 启动 Nginx

shell> /opt/nginx/sbin/nginx
ngx_http_fastdfs_set pid=xxx        # fastdfs-nginx-module 进程 ID

重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload

设置 Nginx 开机启动:

shell> vi /etc/rc.local
# 加入
/opt/nginx/sbin/nginx
shell> chmod +x /etc/rc.local  # CentOS7

9> 通过浏览器访问测试时上传的文件

http://192.168.1.202:8888/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.1.204:8888/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz

六、跟踪节点安装 Nginx 和 ngx_cache_purge 模块

说明:每个节点执行相同的操作

tracker 节点:192.168.1.200,192.168.1.201
在 tracker 上安装的 nginx 主要为了提供 http 访问的反向代理、负载均衡以及缓存服务。

1> 安装 Nginx 所需的依赖包

shell> yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel

2> 安装 nginx 和 ngx_cache_purge 模块

shell> cd /usr/local/src
shell> tar -zxvf nginx-1.10.0.tar.gz
shell> tar -zxvf ngx_cache_purge-2.3.tar.gz
shell> cd nginx-1.10.0
shell> ./configure --prefix=/opt/nginx --sbin-path=/usr/bin/nginx --add-module=/usr/local/src/ngx_cache_purge-2.3
shell> make && make install

3> 配置 Nginx,设置 tracker 负载均衡以及缓存

shell> vi /opt/nginx/conf/nginx.conf
user  nobody;
worker_processes  1;
events {worker_connections  1024;
    use epoll;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    #log_format  main  '$remote_addr - $remote_user [$time_local]"$request" '
    #                  '$status $body_bytes_sent"$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
    #access_log  logs/access.log  main;
    sendfile       on;
    tcp_nopush     on;
    keepalive_timeout  65;
    #gzip on;

    # 设置缓存
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 300m;
    proxy_redirect off;
    proxy_set_header Host $http_host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_connect_timeout 90;
    proxy_send_timeout 90;
    proxy_read_timeout 90;
    proxy_buffer_size 16k;
    proxy_buffers 4 64k;
    proxy_busy_buffers_size 128k;
    proxy_temp_file_write_size 128k; # 设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限 
    proxy_temp_path /fastdfs/cache/nginx/proxy_cache/tmp;

    # 设置 group1 的服务器
    upstream fdfs_group1 {server 192.168.1.202:8888 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.1.203:8888 weight=1 max_fails=2 fail_timeout=30s;
    }

    # 设置 group2 的服务器
    upstream fdfs_group2 {server 192.168.1.204:8888 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.1.205:8888 weight=1 max_fails=2 fail_timeout=30s;
    }

    server {listen       8000;
        server_name  localhost;
        #charset koi8-r;
        #access_log  logs/host.access.log  main;

        # 设置 group 的负载均衡参数
        location /group1/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            proxy_cache http-cache;
            proxy_cache_valid  200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group1;
            expires 30d;
        }

        location /group2/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_cache http-cache;
            proxy_cache_valid 200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group2;
            expires 30d;
        }

        # 设置清除缓存的访问权限
        location ~/purge(/.*) {allow 127.0.0.1;
            allow 192.168.1.0/24;
            deny all;
            proxy_cache_purge http-cache $1$is_args$args;
        }
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {root html;}
    } 
}

按以上 nginx 配置文件的要求,创建对应的缓存目录:

shell> mkdir -p /fastdfs/cache/nginx/proxy_cache
shell> mkdir -p /fastdfs/cache/nginx/proxy_cache/tmp

4> 防火墙打开 Nginx 8000 端口

shell> vi /etc/sysconfig/iptables
## 添加如下配置
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8000 -j ACCEPT 
shell> service iptables restart # 重新启动防火墙

5> 启动 Nginx

shell> /opt/nginx/sbin/nginx

设置开机启动:

shell> vi /etc/rc.local
## 加入以下配置
/opt/nginx/sbin/nginx
shell> chmod +x /etc/rc.local  #centos7

6> 文件访问测试

前面直接通过访问 Storage 节点中的 Nginx 访问文件:
http://192.168.1.202:8888/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.1.204:8888/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz

现在可以通过 Tracker 中的 Nginx 来进行访问:
(1)、通过 Tracker1 中的 Nginx 来访问
http://192.168.1.200:8000/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.1.200:8000/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
(2)、通过 Tracker2 中的 Nginx 来访问
http://192.168.1.201:8000/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.1.201:8000/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
由上面的文件访问效果可以看到,每一个 Tracker 中的 Nginx 都单独对后端的 Storage 组做了负载均衡,但整套 FastDFS 集群,如果想对外提供统一的文件访问地址,还需要对两个 Tracker 中的 Nginx 进行 HA 集群

五、配置 Tracker 服务器高可用、反向代理与负载均衡

使用 Keepalived + Nginx 组成的高可用负载均衡集群,做两个 Tracker 节点中 Nginx 的负载均衡。

1> 安装 keepalived 与 Nginx

分别在 192.168.1.206 和 192.168.1.207 两个节点安装 Keepalived 与 Nginx。
Keepalived 安装与配置:http://www.linuxidc.com/Linux/2017-02/140421.htm
Nginx 的安装与配置:http://www.linuxidc.com/Linux/2017-02/140418.htm

2> 配置 Keeyalived + Nginx 高可用

请参考《Keepalived+Nginx 实现高可用(HA)http://www.linuxidc.com/Linux/2017-02/140422.htm》

注意:将 VIP 的 IP 地址修改为 192.168.1.208

3> 配置 nginx 对 tracker 节点的负载均衡

2 个节点的 Nginx 配置相同,如下所示:

shell> vi /opt/nginx/conf/nginx.conf
user  root;
worker_processes  1;
events {worker_connections  1024;
    use epool;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;

    ## FastDFS Tracker Proxy
    upstream fastdfs_tracker {server 192.168.1.200:8000 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.1.201:8000 weight=1 max_fails=2 fail_timeout=30s;
    }

    server {listen       80;
        server_name  localhost;
        location / {
            root html;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {root html;}

        ## FastDFS Proxy
        location /dfs {
            root   html;
            index  index.html index.htm;
            proxy_pass  http://fastdfs_tracker/;
            proxy_set_header Host  $http_host;
            proxy_set_header Cookie $http_cookie;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
            client_max_body_size  300m;
        }
    } 
}

4> 重启 192.168.1.206 和 192.168.1.207 中的 Nginx

shell> /opt/nginx/sbin/nginx -s reload

5> 通过虚拟 IP 访问文件测试

现在可以通过 Keepalived+Nginx 组成的高可用负载集群的 VIP(192.168.1.208)来访问 FastDFS 集群中的文件了:
http://192.168.1.208/dfs/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz http://192.168.1.208/dfs/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz

注意:千万不要使用 kill -9 命令强杀 FastDFS 进程, 否则可能会导致 binlog 数据丢失。

FastDFS 的详细介绍:请点这里
FastDFS 的下载地址:请点这里

本文永久更新链接地址:http://www.linuxidc.com/Linux/2017-02/140420.htm

FastDFS 集群规划

跟踪服务器负载均衡节点 1:192.168.1.206 dfs-nginx-proxy-1
跟踪服务器负载均衡节点 2:192.168.1.207 dfs-nginx-proxy-2
跟踪服务器 1:192.168.1.200 dfs-tracker-1
跟踪服务器 2:192.168.1.201 dfs-tracker-2
存储服务器 1:192.168.1.202 dfs-storage-group1-1
存储服务器 2:192.168.1.203 dfs-storage-group1-2
存储服务器 3:192.168.1.204 dfs-storage-group2-1
存储服务器 3:192.168.1.205 dfs-storage-group2-2
HA 虚拟 IP:192.168.1.208
HA 软件:Keepalived
操作系统:CentOS 7
用户:root
数据目录:/fastdfs

安装包:
fastdfs-master-V5.05.zip:FastDFS 源码
libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)
fastdfs-nginx-module-master.zip:storage 节点 http 服务 nginx 模块
nginx-1.10.0.tar.gz:Nginx 安装包
ngx_cache_purge-2.3.tar.gz:Nginx 图片缓存清除模块
获取安装包的方式:
1> 从这里下载打包好的所有安装包见上一篇的链接  http://www.linuxidc.com/Linux/2017-02/140419.htm
2> 从作者 github 官网挨个下载 fastdfs 源码及其依赖库:https://github.com/happyfish100 和 Nginx 缓存清除模块:https://github.com/FRiCKLE/ngx_cache_purge

开始前,先将所有安装包下载到各个节点的 /usr/local/src 目录中。

1> 本文称节点 IP 最后一段就代表某个节点,如:192.168.1.206,文中提到 206 节点,就代表 192.168.1.206。
2> 本文称 tracker 或跟踪服务器是同一个意思
3> 本文称 storage 或存储服务器是同一个意思

FastDFS 集群架构图

FastDFS 分布式文件系统集群安装与配置

外部统一访问 192.168.1.208 这个虚拟 IP,来访问集群中各节点的文件。

CentOS6 环境单服务器 FastDFS+Nginx+fastdfs-nginx-module 安装配置 http://www.linuxidc.com/Linux/2015-01/111889.htm

Ubuntu 14.04 下部署 FastDFS 5.08+Nginx 1.9.14 http://www.linuxidc.com/Linux/2016-07/133485.htm

CentOS 6.2 下 fastDFS 的完整安装和配置步骤 http://www.linuxidc.com/Linux/2012-12/75989.htm

FastDFS 在 Ubuntu 下的安装,PHP 客户端 http://www.linuxidc.com/Linux/2012-09/71459.htm

FastDFS 分布式文件服务器安装,及配置,测试 http://www.linuxidc.com/Linux/2012-09/71458.htm

CentOS 7 安装配置分布式文件系统 FastDFS 5.0.5  http://www.linuxidc.com/Linux/2016-09/135537.htm

FastDFS 分布式存储服务器安装过程详解 http://www.linuxidc.com/Linux/2016-10/136544.htm

FastDFS 之文件服务器集群部署详解 http://www.linuxidc.com/Linux/2017-01/139891.htm

一、安装集群节点

所有 跟踪服务器和存储服务器节点上执行以下操作,即:200 ~ 205 节点

1> 安装所需的依赖包

shell> yum install make cmake gcc gcc-c++

2> 安装 libfatscommon

shell> cd /usr/local/src
shell> unzip libfastcommon-master.zip
shell> cd libfastcommon-master
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

3> 安装 FastDFS

shell> cd /usr/local/src
shell> unzip fastdfs-master-V5.05.zip
shell> cd fastdfs-master
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

安装细节可参考上一篇文章《FastDFS 分布式文件系统安装与使用(单节点)》中的第一节。

二、配置跟踪节点(192.168.1.200,192.168.1.201)

说明:每个节点执行相同的操作

1> 复制 tracker 样例配置文件,并重命名

shell> cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf

2> 修改 tracker.conf 配置文件

shell> vim /etc/fdfs/tracker.conf
# 修改的内容如下:
disabled=false              # 启用配置文件
port=22122                  # tracker 服务器端口(默认 22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录

其它参数保留默认配置,具体配置解释可参考官方文档说明:http://www.linuxidc.com/Linux/2017-02/140416.htm

3> 创建 base_path 指定的目录

shell> mkdir -p /fastdfs/tracker

4> 防火墙中打开 tracker 服务器端口(默认为 22122)

shell> vi /etc/sysconfig/iptables
添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT
重启防火墙:
shell> service iptables restart

5> 启动 tracker 服务器

shell> /etc/init.d/fdfs_trackerd start

初次启动,会在 /fastdfs/tracker 目录下生成 logs、data 两个目录:
FastDFS 分布式文件系统集群安装与配置

检查 FastDFS Tracker Server 是否启动成功:ps -ef | grep fdfs_trackerd
FastDFS 分布式文件系统集群安装与配置

6> 停止 tracker 服务器

shell> /etc/init.d/fdfs_trackerd stop

7> 设置 tracker 服务开机启动

shell> chkconfig fdfs_trakcerd on

三、配置存储节点

group1: 192.168.1.202,192.168.1.203
group2: 192.168.1.204,192.168.1.205

说明:每个节点执行相同的操作

1> 复制 storage 样例配置文件,并重命名

shell> cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf

2> 编辑配置文件

shell> vi /etc/fdfs/storage.conf

# 修改的内容如下:
disabled=false                      # 启用配置文件
port=23000                          # storage 服务端口
group_name=group1                   # 组名(第一组为 group1,第二组为 group2,依次类推...)
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录,第二个存储目录起名为:store_path1=xxx,其它存储目录名依次类推...
store_path_count=1                  # 存储路径个数,需要和 store_path 个数匹配
tracker_server=192.168.0.200:22122  # tracker 服务器 IP 和端口
tracker_server=192.168.0.201:22122  # tracker 服务器 IP 和端口
http.server_port=8888               # http 访问文件的端口

其它参数保留默认配置,具体配置解释可参考官方文档说明:http://www.linuxidc.com/Linux/2017-02/140416.htm

3> ���建基础数据目录

shell> mkdir -p /fastdfs/storage

4> 防火墙中打开 storage 服务器端口(默认为 23000)

shell> vi /etc/sysconfig/iptables
添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
重启防火墙:
shell> service iptables restart

5> 启动 storage 服务器

shell> /etc/init.d/fdfs_storaged start

初次启动,会在 /fastdfs/storage 目录下生成 logs、data 两个目录。
FastDFS 分布式文件系统集群安装与配置

检查 FastDFS Tracker Server 是否启动成功:
ps -ef | grep fdfs_storaged
FastDFS 分布式文件系统集群安装与配置
各节点启动后,使用 tail -f /fastdfs/storage/logs/storaged.log 命令监听存储节点的日志,可以看到存储节点链接到跟踪服务器,并提示哪一个为 leader 跟踪服务器,同时也能看到同一组中其它节点加入进来的日志信息。

所有存储节点都启动之后,可以在任一存储节点上使用如下命令查看集群的状态信息:

shell> /usr/bin/fdfs_monitor /etc/fdfs/storage.conf

6> 停止 storage 服务器

shell> /etc/init.d/fdfs_storaged stop

7> 设置 storage 服务开机启动

shell> chkconfig fdfs_storaged on

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2017-02/140420p2.htm

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计17243字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中