FastDFS是一个轻量级的分布式文件系统,在实际生产环境往往以集群的形式部署,保证了服务的高可用。本文重点阐述FastDFS集群的搭建和项目实战。
工作流程
上传流程图
下载流程图
基本概念可参考作者上篇文章:
底层原理
FastDFS不会对文件进行分块存储,直接保存到Storage服务上,这也是不适合超大文件存储的原因,官方建议(4K~500M),优点:简介高效。
FastDFS采用分组存储方式,同一组可以包括多个Storage Server,其中一个Storage接收到上传的文件,会同步文件到同组其他Storage Server。
一个组的存储容量为组内Storage Server容量最小的那个。优点:组内服务压力较大时可以增加Storage Server来缓解压力;系统容量不足时增加组来获得更大的存储空间。
文件上传成功返回的文件ID由组名,磁盘目录和文件名构成。
集群服务器规划
系统环境:centos 7.3
跟踪服务器1(Tracker):192.168.72.135
跟踪服务器2(Tracker):192.168.72.136
-
存储服务器1(Storage):
192.168.72.135---(group1)
-
存储服务器2(Storage):
192.168.72.136---(group1)
-
存储服务器3(Storage):
192.168.72.137---(group2)
由于电脑性能有限,但要模拟多group,只虚拟了3个节点,对group1做了两个节点来备份数据,group2为单节点,生产环境要每个组至少两个节点来保证高可用。
安装包
fastdfs-5.11.tar.gz
fastdfs-nginx-module-master.zip
libfastcommon-1.0.36.tar.gz
nginx-1.8.1.tar.gz
集群部署
Tracker和Storage部署
1:节点1,节2,节点3分别安装FastDFS,具体安装参考上篇文章:
2:分别关闭三个节点的防火墙,或者配置防火墙开放端口,关闭防火墙: systemctl stop firewalld
-
3:修改节点1的tracker.conf配置文件:
>mkdir /data/fdfs-tracker
>vi /etc/fdfs/tracker.conf
把base_path修改为:
base_path=/data/fdfs-tracker
4:修改节点2的tracker.conf配置文件:同上
-
5:修改节点1的storage.conf配置文件:
> mkdir /data/fdfs-storage/base
> mkdir /data/fdfs-storage/storage0
>vi /etc/fdfs/storage.conf
把group_name修改为:
group_name=group1
把base_path修改为:
base_path=/data/fdfs-storage/base
把store_path0修改为:
store_path0=/data/fdfs-storage/storage0
把tracker_server修改两个tracker节点地址:
tracker_server=192.168.72.135:22122
tracker_server=192.168.72.136:22122
6:修改节点2的storage.conf配置文件,同步骤5。
-
7:修改节点3的storage.conf配置文件,
把group_name修改为:
group_name=group2
其他同步骤5。
-
8:节点1,节点2上启动tracker服务
>service fdfs_trackerd start
-
9:节点1,节点2和节点3上启动storage服务
>service fdfs_storaged start
Tracker和Storage安装完成,可以使用FastDFS自带的客户端进行上传下载测试,具体操作方法,
fastdfs-nginx-module和nginx安装
所有节点安装fastdfs-nginx-module模块
-
fastdfs-nginx-module模块作用:
文件上传到组内一个storage存储后,storage服务会吧文件同步到组内其他storage,这就存在时间延时问题,如果此时客户端通过nginx访问到还未同步完成的组内其他storage会导致文件不存在无法访问错误,fastdfs-nginx-module可以解决该问题的发生,通过重定向到源storage节点来获取文件。
-
root目录解压fastdfs-nginx-module:
>unzip fastdfs-nginx-module.zip
-
安装依赖包:
>yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel
-
安装nginx
>tar -zxvf nginx-1.8.1.tar.gz
>cd nginx-1.8.1
>./configure --prefix=/opt/nginx --add-module=/roo/fastdfs-nginx-module/src
>make && make install
-
复制fastdfs-nginx-module中配置文件到/etc/fdfs目录,并修改配置文件:
>cp /root/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs
>vi /etc/fdfs/mod_fastdfs.conf
tracker_server修改为:
tracker_server=192.168.72.135:22122
tracker_server=192.168.72.136:22122
group_name修改为:
节点1:group_name=group1
节点2:group_name=group1
节点3:group_name=group2
url_have_group_name修改为:
url_have_group_name = true
-
复制FastDFS部分配置文件到/etc/fdfs目录:
> cd /root/fastdfs-5.1/conf
>cp http.conf mime.types /etc/fdfs/
修改nginx.conf配置文件:
-
启动nginx:
>./nginx -c conf/nginx.conf
到此FastDFS集群已经搭建完成,文件上传后可以通过任意storage节点上的nginx来获得文件
实战
-
FastDFS提供了C,PHP和java客户端,选用java客户端来进行实战。
创建maven工程,pom.xml文件添加依赖:
net.oschina.zcx7878 fastdfs-client-java 1.27.0.0
添加配置文件
src/main/resoureces目录下添加fdfs_clent.conf配置文件,内容如下:
connect_timeout = 60 network_timeout = 60 charset = UTF-8 http.tracker_http_port = 8080 http.anti_steal_token = no #tracker服务地址 tracker_server = 192.168.72.135:22122 tracker_server = 192.168.72.136:22122
创建FdfsClient类
静态代码块:
private static StorageClient1 storageClient1 = null; private static String trackerServerUrl = null; //初始化FastDFS Client static{ try{ ClientGlobal.init("src/main/resources/fdfs_client.conf"); TrackerClient trackerClient = new TrackerClient(ClientGlobal.g_tracker_group); TrackerServer trackerServer = trackerClient.getConnection(); if (trackerServer == null){ System.out.println("getConnect return null"); } trackerServerUrl = trackerServer.getInetSocketAddress().getHostString(); System.out.println("trackerServerUrl" + trackerServerUrl); StorageServer storageServer = trackerClient.getStoreStorage(trackerServer); if (storageServer == null){ System.out.println("getStoreStorage return null"); } storageClient1 = new StorageClient1(trackerServer,storageServer); }catch (Exception e){ e.printStackTrace(); } }
文件上传
public static String uploadFile(File file, String fileExt, Map metaList) { try { byte[] buff = FileUtils.getFileByte(file); NameValuePair[] nameValuePairs = null; if (metaList != null) { nameValuePairs = new NameValuePair[metaList.size()]; int index = 0; for (Iterator<Map.Entry> iterator = metaList.entrySet().iterator(); iterator.hasNext();) { Map.Entry entry = iterator.next(); String name = entry.getKey(); String value = entry.getValue(); nameValuePairs[index++] = new NameValuePair(name,value); } } return "http://"+ trackerServerUrl + "/" + storageClient1.upload_file1(buff, fileExt, nameValuePairs); } catch (Exception e) { e.printStackTrace(); } return null; }
文件下载
public static int downloadFile(String fileId, String filePath,String fileName) { FileOutputStream fos = null; try { byte[] content = storageClient1.download_file1(fileId); FileUtils.getFile(content, filePath, fileName); return 0; } catch (Exception e) { e.printStackTrace(); } finally { if (fos != null) { try { fos.close(); } catch (IOException e) { e.printStackTrace(); } } } return -1; }
获得文件属性
public static Map getFileMetadata(String fileId) { try { NameValuePair[] metaList = storageClient1.get_metadata1(fileId); if (metaList != null) { HashMap map = new HashMap(); for (NameValuePair metaItem : metaList) { map.put(metaItem.getName(),metaItem.getValue()); } return map; } } catch (Exception e) { e.printStackTrace(); } return null; }
文件删除
public static int deleteFile(String fileId) { try { return storageClient1.delete_file1(fileId); } catch (Exception e) { e.printStackTrace(); } return -1; }