zoukankan      html  css  js  c++  java
  • 项目实战9—企业级分布式存储应用与实战MogileFS、FastDFS

    企业级分布式存储应用与实战-mogilefs

      环境:公司已经有了大量沉淀用户,为了让这些沉淀用户长期使用公司平台,公司决定增加用户粘性,逐步发展基于社交属性的多样化业务模式,决定开展用户讨论区、卖家秀、买家秀、用户试穿短视频等业务,因此,公司新的业务的业务特征将需要海量数据存储,你的领导要求基于开源技术,实现对公司海量存储业务的技术研究和实现,你可以完成任务吗?

     总项目流程图,详见 http://www.cnblogs.com/along21/p/8000812.html

    实验前准备:配置好yum源、防火墙关闭、各节点时钟服务同步

     

    实战一:企业级分布式存储应用与实战 mogilefs 实现

    架构图

    原理

    (1)mogileFS主要由三部分构成:tracker节点,database节点,storage节点

    Tracker(MogileFSd 进程):这个是 MogileFS 的核心部分,他是一个调度器,MogileFSd 进程就是trackers进程程序,trackers 做了很多工作:Replication,Deletion,Query,Reaper,Monitor 等等,这个是基于事件的( event-based ) 父进程/消息总线来管理所有来之于客户端应用的交互(requesting operations to be performed),,包括将请求负载平衡到多个"query workers"中,然后让 MogileFSd 的子进程去处理;

    MySQL:用来存放 MogileFS 的元数据 (命名空间, 和文件在哪里),是Trackers 来操作和管理它,可以用mogdbsetup程序来初始化数据库,因为数据库保存了MogileFS的所有元数据,建议做成HA架构;

    Storage Nodes:这个是 MogileFS 存储文件存放在这些机器上,也是 mogstored 节点,也叫Storage Server,一台存储主要都要启动一个 mogstored 服务.扩容就是增加这些机器,实际文件存放的地方

     

    (2)MogileFS管理的几个概念:

    Domain域:一个MogileFS可以有多个Domain,用来存放不同文件(大小,类型),同一个Domain内key必须唯一不同Domain内,key可以相同;

    ② 每一个存储节点称为一个主机host,一个主机上可以有多个存储设备dev(单独的硬盘),每个设备都有ID号,Domain+Fid用来定位文件。

    Class:文件属性管理,定位文件存储在不同设备上的份数

     

    (3)工作流程

    每次文件的上传和读取,都经过前端TrackerServer 服务器,trackerServer 服务器受到client 端的请求查询数据库返回一个上传或者是读取的可用的后端StorageServer 的地址,然后由client 端直接操作后端StorageServer 服务器。upload 操作返回就是成功或者失败的结果,read操作就是返回对应的查询数据。

     

    (4)mogilefs 服务很特殊:服务配置完毕,开启服务后;还需命令行命令,服务才能真正生效!

     

    1、环境准备

    机器名称

    IP配置

    服务角色

    备注

    tracker-srv

    192.168.30.107

    调度器

    tracker、mysql

    storage node1

    192.168.30.7

    文件存放

    mogstored 服务

    storage node2

    192.168.30.2

    文件存放

    mogstored 服务

    2、下载安装,每个机器都一样

    两个安装方式:yum安装 和 perl程序安装

    方法一:yum安装(推荐)

    (1)所依赖的包,centos 自带的

    yum install perl-Net-Netmask perl-IO-String perl-Sys-Syslog perl-IO-AIO

     

    (2)服务的rpm包,我已经放在我的网盘里了,需要的私聊 http://pan.baidu.com/s/1c2bGc84

    MogileFS-Server-2.46-2.el6.noarch.rpm        #核心服务

    perl-Danga-Socket-1.61-1.el6.rf.noarch.rpm  #socket

    MogileFS-Server-mogilefsd-2.46-2.el6.noarch.rpm    # tracker节点

    perl-MogileFS-Client-1.14-1.el6.noarch.rpm  #客户端

    MogileFS-Server-mogstored-2.46-2.el6.noarch.rpm   #Storage存储节点

    MogileFS-Utils-2.19-1.el6.noarch.rpm    #主要是MogileFS的一些管理工具,例如mogadm等。

     

    (3)开始安装

    cd mogileFS/

    yum localinstall ./* -y

     

    方法二:perl程序源码包安装:通过perl的包管理命令cpanm进行安装

    (1)依赖的包

    yum -y install make gcc unzip perl-DBD-MySQL perl perl-CPAN perl-YAML perl-Time-HiRes

    (2)cpanm安装

    wget http://xrl.us/cpanm -O /usr/bin/cpanm;

    sudo chmod +x /usr/bin/cpanm

    #cpanm DBD::mysql

    #cpanm MogileFS::Server

    #cpanm MogileFS::Utils

    #cpanm MogileFS::Client

    #cpanm IO::AIO

     

    3、数据库初始化

    (1)创建mogilefs 所需要的用户并授权

    systemctl start mariadb 开启mysql服务

    MariaDB [mogilefs]> GRANT ALL PRIVILEGES ON mogilefs.* TO 'mogile' @'127.0.0.1' IDENTIFIED BY 'mogile' WITH GRANT OPTION;
    MariaDB [mogilefs]> flush privileges;    刷新下权限

    (2)设定数据库:数据库初始化

    mogdbsetup --dbpass=mogile

     

    4、在tracker-srv 服务器上,启动mogilefsd服务

    (1)修改管理tracker 的配置文件

    vim /etc/mogilefs/mogilefsd.conf

    ① 配置数据库连接相关信息
    db_dsn = DBI:mysql:mogilefs:host=127.0.0.1
    db_user = mogile
    db_pass = mogile
    ② 下边的只需修改监听地址和端口
    listen = 192.168.30.107:7001 #mogilefs监听地址,监听在127.0.0.1表示只允许从本机登录进行管理
    query_jobs = 10   #启动多少个查询工作线程
    delete_jobs = 1    #启动多少个删除工作线程
    replicate_jobs = 5   #启动多少个复制工作线程
    reaper_jobs = 1      #启动多少个用于回收资源的线程
    maxconns = 10000   #存储系统的最大连接数.
    httplisten = 0.0.0.0:7500   #可通过http访问的服务端口
    mgmtlisten = 0.0.0.0:7501   #mogilefs的管理端口
    docroot = /var/mogdata   #该项决定了数据的在storage上存储的实际位置,建议使用的是一个单独挂载使用的磁盘

    (2)创建进程需要的目录,并授权

    mkdir /var/run/mogilefsd/

    chown -R mogilefs.mogilefs /var/run/mogilefsd

     

    (3)开启服务

    /etc/init.d/mogilefsd start

    有时候会显示启动失败;但实际则是启动成功了。可以

    ss -nutlp|grep mogilefs 查询是否有mogilefsd 的监听ip和端口

     

    5、在两台storage node 上,启动mogstored服务

    (1)修改storage node 的配置文件

    vim /etc/mogilefs/mogstored.conf

    maxconns = 10000   #存储系统的最大连接数.
    httplisten = 0.0.0.0:7500    #可通过http访问的服务端口
    mgmtlisten = 0.0.0.0:7501   #mogilefs的管理端口
    docroot = /data/mogdata    #该项决定了数据的在storage上存储的实际位置,建议使用的是一个单独挂载使用的磁盘

     

    (2)创建storage 存储的目录

    mkdir -p /data/mogdata

    (3)授权

    cd /data/

    chown mogilefs.mogilefs mogdata/ -R

    (4)开启服务,有时候开启服务显示失败,其实已经成功

    /etc/init.d/mogstored start

      

    6、修改客户端工具配置

    vim /etc/mogilefs/mogilefs.conf 客户端工具配置文件

    trackers=192.168.30.107:7001 #自己的tracker 的服务IP和端口

     

    7、storage node 节点加入到MogileFS 的系统中

    在tracker 的服务器上:

    (1)加入"存储节点storage node1/2"到 trackers 中

    mogadm --tracker=192.168.30.107:7001 host add node1 --ip=192.168.30.7 --port=7500 --status=alive
    mogadm --tracker=192.168.30.107:7001 host add node2 --ip=192.168.30.2 --port=7500 --status=alive

    (2)查询信息,检查主机是否加入到 MogileFS 的系统中

    mogadm check

    mogadm host list

     

    (3)当然,操作错误也可以修改

    mogadm host modify node1 --ip=192.168.30.7 --port=7500 --status=alive

     

    8、创建设备

    在两个storage node 服务器上:

    (1)创建"设备"实验的目录并授权,格式: dev + ID

    注意:所有系统中 ID 不能重复,也必须和配置文件中的路径一样

    cd mogdata/

    mkdir dev1

    chown mogilefs.mogilefs dev1/ -R 加权限

    设置成功,会在dev1下生成一个文件,是tracker 过来测试留下来的

     

    (2)在另一台服务器上也一样

    cd mogdata/

    mkdir dev2

    chown mogilefs.mogilefs dev2/ -R

     

    9、两个设备加入 MogileFS 的存储系统中

    (1)在tracker 上

    mogadm --tracker=192.168.30.107:7001 device add node1 1

    mogadm --tracker=192.168.30.107:7001 device add node1 1
    mogadm --tracker=192.168.30.107:7001 device add node2 2

    (2)查看设备信息

    mogadm check 检测出来两个设备的信息了

    mogadm device list 能查询设备的详细信息

     

    (3)在数据库中也能查出设备

    MariaDB [mogilefs]> select * from device;

    MariaDB [mogilefs]> select * from host;

     

    10、划分域、class

    mogadm domain add img 创建一个img域

    mogadm class add img along --mindevcount=3 在img域中创建一个along的class,可以存放3份

     

    11、上传文件且测试

    (1)上传一张图片

    mogupload --domain=img --key=test --file=along.jpg 向img域中上传一张along.jpg的图片,key为test

    mogfileinfo --domain=img --key=test 查询文件

     

    (2)网页访问http://192.168.30.2:7500/dev2/0/000/000/0000000002.fid

     

    (3)当然,也可以删除图片

    mogdelete --domain=img --key=test

     

    (4)在数据库也能查看到

    MariaDB [mogilefs]> select * from file;

     

    (5)在后端两个storage node 上也能查到图片,图片就是存放到storage node服务器上的

    注意:本来,后端两个storage node 上应该都有存放的图片,能互相复制,是副本关系,但这一版本有BUG

    我的只有在storage node2 上才有这张图片

     

    12、修复bug,实现后端storage node 同步存储

    分析:因为这个版本有bug,所以需降版本

    (1)下载包

    wget http://search.cpan.org/CPAN/authors/id/B/BR/BRADFITZ/Sys-Syscall-0.23.tar.gz

    也可以http://search.cpan.org/CPAN/authors/id/B/BR/BRADFITZ/Sys-Syscall-0.23.tar.gz 去网站直

    接下载

    (2)上传,解压缩

    rz,tar xvf Sys-Syscall-0.23.tar.gz -C /tmp

    (3)编译安装

    ① 因为是perl 语言编写的,所以需要安装perl 编译安装的环境

    yum -y install make gcc unzip perl-DBD-MySQL perl perl-CPAN perl-YAML perl-Time-HiRes

    ② 编译安装

    cd /tmp/Sys-Syscall-0.23/

    perl Makefile.PL 准备环境

    make & make install

     

    (4)重启服务

    ① 在tracker 服务器是,有时候开启服务显示失败,其实已经成功

    /etc/init.d/mogilefsd stop

    /etc/init.d/mogilefsd start

    ② 在storage node 服务器上,有时候开启服务显示失败,其实已经成功

    /etc/init.d/mogstored stop

    /etc/init.d/mogstored start

     

    (5)测试

    ① 再上传一张图片

    mogupload --domain=img --key=test1 --file=along.jpg

    ② 在两个storage node 服务器上,存储已经实现同步

     

    实战二:mogilefs、mysql主从和keepalived 高可用实现分布式存储

    原理:在database 上实现mysql的主从;且为了提升性能,在每个节点上都配置tracker

    主mysql宕机,从mysql上数据没有丢失;且VIP能漂到从mysql上,继续提供服务

    1、环境准备

    机器名称

    IP配置

    服务角色

    备注

    mogilefs-

    mysql-master

    192.168.30.107

    主数据库

    tracker、mysql

    mogilefs-

    mysql-slave

    192.168.30.7

    从数据库

    tracker、mysql

    mogilefs-

    store1

    192.168.30.2

    文件存放

    tracker、storage

    mogilefs-

    store2

    192.168.30.3

    文件存放

    tracker、storage

    2、在所有机器上下载安装mogilefs

    (1)所依赖的包,centos 自带的

    yum install perl-Net-Netmask perl-IO-String perl-Sys-Syslog perl-IO-AIO

     

    (2)服务的rpm包,我已经放在我的网盘里了,需要的私聊 http://pan.baidu.com/s/1c2bGc84

    MogileFS-Server-2.46-2.el6.noarch.rpm #核心服务

    perl-Danga-Socket-1.61-1.el6.rf.noarch.rpm #socket

    MogileFS-Server-mogilefsd-2.46-2.el6.noarch.rpm # tracker节点

    perl-MogileFS-Client-1.14-1.el6.noarch.rpm #客户端

    MogileFS-Server-mogstored-2.46-2.el6.noarch.rpm #Storage存储节点

    MogileFS-Utils-2.19-1.el6.noarch.rpm #主要是MogileFS的一些管理工具,例如mogadm等。

     

    (3)开始安装

    cd mogileFS/

    yum localinstall ./* -y

     

    3、在两台mysql上实现主从

    (1)在主mysql 上

    ① vim /etc/my.cnf 修改mysql主配置文件,对master进行配置,包括打开二进制日志,指定唯一的servr ID

    server-id=1         #配置server-id,让主服务器有唯一ID号
    log-bin=mysql-bin   #打开Mysql日志,日志格式为二进制
    skip-name-resolve   #关闭名称解析,(非必须)

    systemctl start mariadb 开启服务

     

    创建并授权slave mysql 用的复制帐号

    MariaDB [(none)]> grant replication slave,replication client on *.* to slave@'192.168.30.7' identified by 'along';

     

    ③ 查看主服务器状态

    在Master的数据库执行show master status,查看主服务器二进制日志状态,位置号

     

    (2)在从mysql 上

    ① 修改主配置文件

    vim /etc/my.cnf 打开中继日志,指定唯一的servr ID,设置只读权限

    server-id=2       #配置server-id,让从服务器有唯一ID号
    relay_log = mysql-relay-bin    #打开Mysql日志,日志格式为二进制
    read_only = 1    #设置只读权限
    log_bin = mysql-bin         #开启从服务器二进制日志,(非必须)
    log_slave_updates = 1  #使得更新的数据写进二进制日志中 

    systemctl start mariadb 开启服务

     

    启动从服务器复制线程,让slave连接master,并开始重做master二进制日志中的事件。

    MariaDB [(none)]> change master to master_host='192.168.30.107',
        -> master_user='slave',
        -> master_password='along',
        -> master_log_file='mysql-bin.000001',
        -> master_log_pos=245;
    MariaDB [(none)]>  start slave;   # 启动复制线程,就是打开I/O线程和SQL线程;实现拉主的bin-log到从的relay-log上;再从relay-log写到数据库内存里

    ③ 查看从服务器状态

    可使用SHOW SLAVE STATUSG查看从服务器状态,如下所示,也可用show processlist G查看当前复制状态:

    Slave_IO_Running: Yes #IO线程正常运行

    Slave_SQL_Running: Yes #SQL线程正常运行

     

    3、初始化数据库

    (1)在主mysql上授权,因为主从同步,所以只需操作主

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON mogilefs.* TO 'mogile'@'192.168.30.%' IDENTIFIED BY 'mogile' WITH GRANT OPTION;
    MariaDB [mogilefs]> flush privileges;    刷新下权限

    (2)数据库初始化,在两个机器上都初始化

    mogdbsetup --dbpass=mogile

    4、在主从mysql上实现keepalived,高可用

    原理:主mysql宕机,从上数据没有丢失;且VIP能漂到从mysql上,继续提供服务

    (1)在两个机器上下载keepalived

    yum -y install keepalived

     

    (2)在主mysql上配置keepalived

    ① 全局段,故障通知邮件配置
    global_defs {
       notification_email {
            root@localhost
       }
       notification_email_from root@along.com
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id keepalived_mysql
    }
    ② 检测脚本,监控mysqld进程服务
    vrrp_script chk_nginx {
            script "killall -0 mysqld"   #killall -0 检测这个进程是否还活着,不存在就减权重
            interval 2    #每2秒检查一次
            fall 2     #失败2次就打上ko的标记
            rise 2    #成功2次就打上ok的标记
            weight -4    #权重,优先级-4,若为ko
    }
    ③ 配置虚拟路由器的实例段,VI_1是自定义的实例名称,可以有多个实例段
    vrrp_instance VI_1 {
        state MASTER
        interface eth0
        virtual_router_id 190
        priority 100
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass along
        }
        virtual_ipaddress {
            192.168.30.100
        }
    track_script {
    chk_nginx
    }
    }

    (3)在从上只需修改优先级和backup

    vrrp_instance VI_1 {
        state BACKUP
        interface eth0
        virtual_router_id 190
        priority 98
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass along
        }
        virtual_ipaddress {
            192.168.30.100
        }
    track_script {
    chk_nginx
    }
    }

    (4)开启keepalived 服务

    systemctl start keepalived

    主mysql 上VIP已经生成

    5、在所有机器上,开启tracker服务

    (1)修改管理tracker 的配置文件

    vim /etc/mogilefs/mogilefsd.conf

    ① 配置数据库连接相关信息
    db_dsn = DBI:mysql:mogilefs:host=192.168.30.100
    db_user = mogile
    db_pass = mogile
    ② 下边的只需修改监听地址和端口
    listen = 192.168.30.107:7001 #mogilefs监听地址,监听在127.0.0.1表示只允许从本机登录进行管理;注意,4台机器写自己的IP地址
    listen = 192.168.30.7:7001
    listen = 192.168.30.2:7001
    listen = 192.168.30.3:7001
    注意:不是写4个,是在4个机器上分别写

    (2)创建进程需要的目录,并授权

    mkdir /var/run/mogilefsd/

    chown -R mogilefs.mogilefs /var/run/mogilefsd

     

    (3)开启服务,4台都开启

    /etc/init.d/mogilefsd start

    有时候会显示启动失败;但实际则是启动成功了。可以

    ss -nutlp|grep mogilefs 查询是否有mogilefsd 的监听ip和端口

     

    6、在两个mogilefs-store 上开启storage 服务

    (1)修改storage node 的配置文件

    vim /etc/mogilefs/mogstored.conf

    maxconns = 10000   #存储系统的最大连接数.
    httplisten = 0.0.0.0:7500    #可通过http访问的服务端口
    mgmtlisten = 0.0.0.0:7501   #mogilefs的管理端口
    docroot = /data/mogdata    #该项决定了数据的在storage上存储的实际位置,建议使用的是一个单独挂载使用的磁盘

     

    (2)创建storage 存储的目录

    mkdir -p /data/mogdata

    (3)授权

    cd /data/

    chown mogilefs.mogilefs mogdata/ -R

    (4)开启服务,有时候开启服务显示失败,其实已经成功

    /etc/init.d/mogstored start

     

    7、修改客户端工具配置

    vim /etc/mogilefs/mogilefs.conf 客户端工具配置文件,4个机器写自己的tracker

    trackers=192.168.30.107:7001   #自己的tracker 的服务IP和端口
    trackers=192.168.30.7:7001
    trackers=192.168.30.2:7001
    trackers=192.168.30.3:7001
    注意:是各自写各自的,不是都写在一个机器里

    8、storage node 节点加入到MogileFS 的系统中

    在tracker 的服务器上:只需在一个tracker 服务器上做就行了

    (1)加入"存储节点storage node1/2"到 trackers 中

    mogadm  host add node1 --ip=192.168.30.3 --port=7500 --status=alive
    mogadm  host add node2 --ip=192.168.30.2 --port=7500 --status=alive

    (2)查询信息,检查主机是否加入到 MogileFS 的系统中

    mogadm check

    mogadm host list

     

    (3)当然,操作错误也可以修改

    mogadm host modify node1 --ip=192.168.30.3 --port=7500 --status=alive

     

    9、创建设备

    mogilefs-store1 服务器上:

    (1)创建"设备"实验的目录并授权,格式: dev + ID

    注意:所有系统中 ID 不能重复,也必须和配置文件中的路径一样

    cd /data/mogdata/

    mkdir dev1

    chown mogilefs.mogilefs dev1/ -R 加权限

    设置成功,会在dev1下生成一个文件,是tracker 过来测试留下来的

     

    (2)在另一台服务器上也一样

    cd mogdata/

    mkdir dev2

    chown mogilefs.mogilefs dev2/ -R

     

    10、两个设备加入 MogileFS 的存储系统中

    (1)在tracker 上

    mogadm  device add node1 1
    mogadm  device add node2 2

    (2)查看设备信息

    mogadm check 检测出来两个设备的信息了

    mogadm device list 能查询设备的详细信息

     

    (3)在数据库中也能查出设备

    MariaDB [mogilefs]> select * from device;

    MariaDB [mogilefs]> select * from host;

    10划分域/class、11上传文件且测试、12修复bug  步骤都同上

    实战三:FastDFS 实现分布式存储

    架构图:

    原理

    (1)FastDFS核心组件

    Tracker:调度器,负责维持集群的信息,例如各group及其内部的storage node,这些信息也是storage node报告所生成;每个storage node会周期性向tracker发心跳信息

    storage server:以group为单位进行组织,任何一个storage server都应该属于某个group,一个group应该包含多个storage server;在同一个group内部,各storage server的数据互相冗余;

     

    (2)FastDFS架构的特点

    只有两个角色tracker server和storage server不需要存储文件索引信息

    • 所有服务器都是对等的不存在Master-Slave关系

    • 存储服务器采用分组方式同组内存储服务器上的文件完全相同(RAID 1)

    不同组的storage server之间不会相互通信

    • 由storage server主动向tracker server报告状态信息,tracker server之间通常不会相互通信

     

    (3)FastDFS同步机制

    ① 采用binlog文件记录更新操作,根据binlog进行文件同步同一组内的storage server之间是对等的,文件上传、删除等操作可以在任意一台storage server上进行;

    ② 文件同步只在同组内的storage server之间进行,采用push方式,即源服务器同步给目标服务器;

    ③ 源头数据才需要同步,备份数据不需要再次同步,否则就构成环路了;

    上述第二条规则有个例外,就是新增加一台storage server时,由已有的一台storage server将已有的所有数据(包括源头数据和备份数据)同步给该新增服务器。

     

    (4)FastDFS运行机制

    ---> 上传文件

    ① client询问tracker上传到的storage;

    ② tracker返回一台可用的storage;

    ③ client直接和storage通信完成文件上传,storage返回文件ID

    <--- 下载文件

    ① client询问tracker下载文件的storage,参数为文件ID(组名和文件名)

    ② tracker返回一台可用的storage;

    ③ client直接和storage通信完成文件下载

     

    (5)FastDFS 与 mogileFS 的区别

     

    1、环境准备

    机器名称

    IP配置

    服务角色

    备注

    tracker-srv

    192.168.30.107

    调度器

    tracker、不需mysql

    storage srv1

    192.168.30.7

    文件存放

     

    storage srv2

    192.168.30.2

    文件存放

     

    2、下载安装

    mkdir /fastdfs 创建一个存放fastdfs所需包的目录

    所需要的包,我已经存放在我的网盘了,有需要的私聊

    https://pan.baidu.com/share/init?surl=c2bGc84

    cd /fastdfs

    yum -y localinstall ./*

     

    3、在tracke 的服务器上,开启tracke 服务

    (1)修改配置文件

    cd /etc/fdfs tracker的配置文件的模板已经准备好了,只需复制修改就好

    cp tracker.conf.sample tracker.conf

     

    vim /etc/fdfs/tracker.conf    必须修改的一项

    base_path=/data/fastdfs/tracker     #base源路径

    ① 还可以修改一些自己需要的,如上传、下载方式

    ② 访问权限控制

     

    (2)创建目录

    mkdir /data/fastdfs/tracker -p

     

    (3)启动tracker服务

    /etc/init.d/fdfs_trackerd start

     

    4、在后端两台storage server上,开启storage 快照

    在storage server上 storage的配置文件的模板已经准备好了,只需复制修改就好

    cd /etc/fdfs

    cp storage.conf.sample storage.conf

    (1)修改配置文件

    vim storage.conf 必须修改3项

    base_path=/data/fastdfs/storage   #base源路径
    store_path0=/data/fastdfs/storage    #实际存储目录
    tracker_server=192.168.30.107:22122    #指定tracker

    (2)创建目录

    mkdir /data/fastdfs/storage -p

     

    (3)开启服务

    /etc/init.d/fdfs_storaged start

     

    (4)生成了存放文件的目录

     

    5、设置客户端配置文件

    (1)设置客户端配置文件

    cd /etc/fdfs

    cp client.conf.sample client.conf 复制模板

    vim client.conf 修改2行

    base_path=/data/fastdfs/tracker
    tracker_server=192.168.30.107:22122

    (2)查看存储节点状态

    fdfs_monitor /etc/fdfs/client.conf

     

    6、FastDFS的上传、下载

    (1)fdfs_upload_file /etc/fdfs/client.conf xiaomi.zip 上传

     

    (2)在后端两个storage server 上,两个是同步的,一样

    ① 二进制文件有记录

     

    ② 确实能找到

     

    (3)文件查看

    fdfs_file_info /etc/fdfs/client.conf group1/M00/00/00/wKgeAlodCEGAXOuMB3o1rOpTQ-0771.zip

    分析:上传到了192.168.30.2 的机器上,然后push推到192.168.30.7上

     

    (4)文件下载

    fdfs_download_file /etc/fdfs/client.conf group1/M00/00/00/wKgeAlodCEGAXOuMB3o1rOpTQ-0771.zip
    md5sum xiaomi.zip wKgeAlodCEGAXOuMB3o1rOpTQ-0771.zip

    分析:md5值是一样的,表明是同一个文件

     

    (5)删除

    fdfs_delect_file /etc/fdfs/client.conf group1/M00/00/00/wKgeAlodCEGAXOuMB3o1rOpTQ-0771.zip

     

    (6)上传测试

    fdfs_test /etc/fdfs/client.conf upload xiaomi.zip [FILE | BUFF | CALLBACK]

     

    实验四:FastDFS实现nginx代理

    在两个后端storage server 上实现的

    1、安装nginx 插件,也存放到我的网盘里了,rz

    yum -y localinstall nginx-*

     

    2、在nginx上加载模块

    vim /etc/nginx/nginx.conf

    location /group1/M00 {
            root /data/fastdfs/storage/data;
            ngx_fastdfs_module;
    }

    3、修改fastdfs 模块的配置文件

    vim /etc/fdfs/mod_fastdfs.conf

    tracker_server=192.168.30.107:22122
    url_have_group_name = true
    store_path0=/data/fastdfs/storage

    4、开启nginx 服务,测试

    systemctl start nginx

    网页测试 http://192.168.30.2/group1/M00/00/00/wKgeB1odET-AGOSlAAAbjMSvzS8917.jpg

    前面的实战,后几天慢慢补上!!!大家见谅。

  • 相关阅读:
    JQuery新浪1630个表情插件
    时间轴Jquery特效
    微博分享Jquery插件
    分享一款解析json数据包获取全国学校Jquery特效
    视频播放插件
    如何将word中的数据导入到数据库中
    在留资格到了
    090310 晴
    090306 雨
    胃的保养
  • 原文地址:https://www.cnblogs.com/along21/p/7911676.html
Copyright © 2011-2022 走看看