zoukankan      html  css  js  c++  java
  • 安装FastDFS

    本节使用docker安装FastDFS。

    本节是在node01和node02两台主机上安装部署FastDFS双节点。
    node01 ip:192.168.178.7 安装tracker1,storage1
    node02 ip:192.168.178.10 安装tracker2,storage2

    若要扩展更多tracker或storage节点,也是类似操作。

    1. 拉取 fastdfs docker 镜像

    docker pull morunchang/fastdfs

    2. 安装fastdfs tracker

    分别在node01和node02上安装tracker

    在node01和node02上分别执行以下操作。

    注:以下操作指令在node01中执行,在node02操作时,将tracker1改为tracker2。

    (1) 创建文件夹

    mkdir -p /apps/fastdfs/tracker1/data /apps/fastdfs/tracker1/conf

    (2) FastDFS 跟踪器配置:tracker.conf

    vim /apps/fastdfs/tracker1/conf/tracker.conf

    配置文件内容

    # 启动配置文件
    disabled=false
    
    # 绑定IP,常用于服务器有多个IP但只希望一个IP提供服务,如果不填则表示所有的(一般不填就OK)
    bind_addr=
    
    # 设置tracker的端口号
    port=22122
    
    # 连接超时时间,针对socket套接字函数connect
    connect_timeout=30
    
    # tracker server的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。 
    network_timeout=30
    
    # 设置tracker的数据文件和日志目录(需预先创建)
    base_path=/data/fast_data
    
    # 系统提供服务时的最大连接数。对于V1.x,因一个连接由一个线程服务,也就是工作线程数。
    # 对于V2.x,最大连接数和工作线程数没有任何关系
    max_connections=256
    
    accept_threads=1
    
    # V2.0引入的这个参数,工作线程数,通常设置为CPU数
    work_threads=4
    
    # 上传组(卷) 的方式 0:轮询方式 1: 指定组 2: 平衡负载(选择最大剩余空间的组(卷)上传)
    # 这里如果在应用层指定了上传到一个固定组,那么这个参数被绕过
    store_lookup=2
    
    # 当上一个参数设定为1 时 (store_lookup=1,即指定组名时),必须设置本参数为系统中存在的一个组名。
    # 如果选择其他的上传方式,这个参数就没有效了。
    store_group=group1
    
    # 选择哪个storage server 进行上传操作(一个文件被上传后,这个storage server就相当于这个文件的storage server源,会对同组的storage server推送这个文件达到同步效果)
    # 0: 轮询方式 
    # 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
    # 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority) 
    store_server=0
    
    # 选择storage server 中的哪个目录进行上传。storage server可以有多个存放文件的base path(可以理解为多个磁盘)。
    # 0: 轮流方式,多个目录依次存放文件
    # 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
    store_path=0
    
    # 选择哪个 storage server 作为下载服务器 
    # 0: 轮询方式,可以下载当前文件的任一storage server
    # 1: 哪个为源storage server 就用哪一个 (前面说过了这个storage server源 是怎样产生的) 就是之前上传到哪个storage server服务器就是哪个了
    download_server=0
    
    # storage server 上保留的空间,保证系统或其他应用需求空间。可以用绝对值或者百分比(V4开始支持百分比方式)。
    # (指出 如果同组的服务器的硬盘大小一样,以最小的为准,也就是只要同组中有一台服务器达到这个标准了,这个标准就生效,原因就是因为他们进行备份)
    reserved_storage_space = 10%
    
    # 选择日志级别
    log_level=info
    
    # 操作系统运行FastDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个)
    run_by_group=
    
    # 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
    run_by_user=
    
    # 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
    # allow_hosts=10.0.1.[1-15,20]
    # allow_hosts=host[01-08,20-25].domain.com
    allow_hosts=*
    
    # 同步或刷新日志信息到硬盘的时间间隔,单位为秒
    # 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
    # 默认是10s
    sync_log_buff_interval = 10
    
    # 检测 storage server 存活的时间隔,单位为秒。
    # storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。
    check_active_interval = 120
    
    # 线程栈的大小。FastDFS server端采用了线程方式。更正一下,tracker server线程栈不应小于64KB,不是512KB。
    # 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程(V1.x对应的参数为max_connections,V2.0为work_threads),可以适当降低本参数值。
    thread_stack_size = 64KB
    
    # 这个参数控制当storage server IP地址改变时,集群是否自动调整。注:只有在storage server进程重启时才完成自动调整。
    storage_ip_changed_auto_adjust = true
    
    # V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
    # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
    storage_sync_file_max_delay = 86400
    
    # V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
    # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
    storage_sync_file_max_time = 300
    
    # V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
    use_trunk_file = false
    
    # the min slot size, should <= 4KB
    # default value is 256 bytes
    # since V3.00
    # V3.0引入的参数。
    # trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
    slot_min_size = 256
    
    # the max slot size, should > slot_min_size
    # store the upload file to trunk file when it's size <=  this value
    # default value is 16MB
    # since V3.00
    # V3.0引入的参数。
    # 只有文件大小<=这个参数值的文件,才会合并存储。如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
    slot_max_size = 16MB
    
    # the trunk file size, should >= 4MB
    # default value is 64MB
    # since V3.00
    # V3.0引入的参数。
    # 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
    trunk_file_size = 64MB
    
    # default value is false
    # 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
    trunk_create_file_advance = false
    
    # the time format: HH:MM
    # default value is 02:00
    # 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点。
    trunk_create_file_time_base = 02:00
    
    # default value is 38400 (one day)
    # 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
    trunk_create_file_interval = 86400
    
    # default value is 0
    # 提前创建trunk file时,需要达到的空闲trunk大小
    # 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
    trunk_create_file_space_threshold = 20G
    
    # trunk初始化时,是否检查可用空间是否被占用
    # 默认是false
    trunk_init_check_occupying = false
    
    # 是否无条件从trunk binlog中加载trunk可用空间信息
    # FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
    # 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
    trunk_init_reload_from_binlog = false
    
    trunk_compress_binlog_min_interval = 0
    
    # 是否使用server ID作为storage server标识
    use_storage_id = false
    
    # since V4.00
    # use_storage_id 设置为true,才需要设置本参数
    # 在文件中设置组名、server ID和对应的IP地址
    storage_ids_filename = storage_ids.conf
    
    id_type_in_filename = ip
    
    # default value is false
    # since V4.01
    # 存储从文件是否采用symbol link(符号链接)方式
    # 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
    store_slave_file_use_link = false
    
    # default value is false
    # since V4.02
    # 是否定期轮转error log,目前仅支持一天轮转一次
    rotate_error_log = false
    
    # rotate error log time base, time format: Hour:Minute
    # Hour from 0 to 23, Minute from 0 to 59
    # default value is 00:00
    # since V4.02
    # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
    error_log_rotate_time=00:00
    
    # rotate error log when the log file exceeds this size
    # 0 means never rotates log file by log file size
    # default value is 0
    # since V4.02
    # error log按大小轮转
    # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
    rotate_error_log_size = 0
    
    # 保留日志文件的天数
    # 0表示不删除旧的日志文件
    # default值为0
    log_file_keep_days = 0
    
    # 如果使用连接池
    # default value为false
    # 从V4.05开始
    use_connection_pool = false
    
    # 空闲时间超过此时间的连接将被关闭
    # unit:秒
    # 默认值为3600
    # 从V4.05开始
    connection_pool_max_idle_time = 3600
    
    # HTTP服务是否不生效 
    http.disabled=false   
    # 设置http端口号
    http.server_port=8080
    
    # check storage HTTP server alive interval seconds
    # <= 0从不检查
    # 默认值为30
    http.check_alive_interval=30
    
    # check存储HTTP服务器活动类型,值为:
    # tcp:仅使用HTTP端口连接到storge服务器,
    # 不要求并得到回复
    # http:storage check alive url必须返回http状态200
    # default value是tcp
    http.check_alive_type=tcp
    
    # 注意:存储嵌入HTTP服务器支持uri:/status.html
    http.check_alive_uri=/status.html
    
    # use "# include" directive to include http other settiongs
    ## include http.conf  #  如果加载http.conf的配置文件 去掉第一个# 

    (3) 运行tracker1的docker容器

    docker run -d --name tracker1 --net=host --restart always 
    -v /etc/localtime:/etc/localtime 
    -v /apps/fastdfs/tracker1/data:/data/fast_data/ 
    -v /apps/fastdfs/tracker1/conf/tracker.conf:/etc/fdfs/tracker.conf 
    morunchang/fastdfs sh tracker.sh

    (4) 查看docker日志是否启动正常

    docker logs tracker1

    (5) 开启防火墙端口

    # 开启防火墙端口:22122
    # 编辑文件:-A INPUT -p tcp -m state --state NEW -m tcp --dport 22122 -j ACCEPT
    vim /etc/sysconfig/iptables
    # 重启防火墙
    systemctl restart iptables.service

    3. 安装fastdfs storage

    在node01和node02上安装storage。

    在node01和node02上分别执行以下操作
    注意:以下操作指令在node01中执行,在node02操作时,将storage1改为storage2。

    (1) 创建文件夹

    mkdir -p /apps/fastdfs/storage1/data /apps/fastdfs/storage1/conf

    (2) FastDFS 存储配置:storage.conf

    vim /apps/fastdfs/storage1/conf/storage.conf

    配置内容

    # false为生效,true不生效
    disabled=false
    
    # 指定此 storage server 所在组(卷)
    # 如果注释或者删除这个参数,而从tracker那里获取分组信息
    # 则 use_storage_id参数必须设为true 在 tracker.conf 配置文件中
    # storage_ids.conf文件必须正确配置
    group_name=group1
    
    # 绑定ip地址,空值为主机上全部地址
    # bind_addr通常是针对server的。当指定bind_addr时,本参数才有效。
    # 本storage server作为client连接其他服务器(如tracker server、其他storage server),是否绑定bind_addr。
    bind_addr=
    
    client_bind=true
    
    # 存储服务端口
    port=23002
    
    # 连接超时时间,针对socket套接字函数connect
    # 默认是30s
    connect_timeout=30
    
    # storage server 网络超时时间,单位为秒。发送或接收数据时,
    # 如果在超时时间后还不能发送或接收数据,则本次网络通信失败
    # 默认是30s
    network_timeout=30
    
    # 心跳间隔时间,单位为秒 (这里是指主动向tracker server 发送心跳)
    heart_beat_interval=30
    
    # storage server向tracker server报告磁盘剩余空间的时间间隔,单位为秒
    stat_report_interval=60
    
    # storage存储data和log的根路径,必须提前创建好
    base_path=/data/fast_data
    
    # 服务器支持的最大并发连接
    # 默认为256
    # 更大的值 意味着需要使用更大的内存
    max_connections=256
    
    # 发送/接收 数据的缓冲区大小
    # 此参数必须大于8KB
    # 设置队列结点的buffer大小。工作队列消耗的内存大小 = buff_size * max_connections
    # 设置得大一些,系统整体性能会有所提升。
    # 消耗的内存请不要超过系统物理内存大小。另外,对于32位系统,请注意使用到的内存不要超过3GB
    buff_size = 256KB
    
    # 接受线程数  默认为1 
    accept_threads=1
    
    # V2.0引入的这个参数,工作线程数 <=max_connections
    # 此参数 处理 网络的 I/O
    # 通常设置为CPU数
    work_threads=4
    
    # 磁盘是否 读写分离
    # false为读写混合  true为读写分离
    # 默认读写分离
    disk_rw_separated = true
    
    # 针对每个个存储路径的读线程数,缺省值为1
    # 读写混合时 此值设为0
    # 读写分离时,系统中的读线程数 = disk_reader_threads * store_path_count
    # 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count
    disk_reader_threads = 1
    
    # 针对每个个存储路径的写线程数,缺省值为1
    # 读写混合时 此值设为0
    # 读写分离时,系统中的写线程数 = disk_writer_threads * store_path_count
    # 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count
    disk_writer_threads = 1
    
    # 同步文件时,如果从binlog中没有读到要同步的文件,休眠N毫秒后重新读取。0表示不休眠,立即再次尝试读取。
    # 出于CPU消耗考虑,不建议设置为0。如何希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为10ms
    # 必须 > 0, 默认值是200ms
    sync_wait_msec=50
    
    # 同步上一个文件后,再同步下一个文件的时间间隔,单位为毫秒,0表示不休眠,直接同步下一个文件
    sync_interval=0
    
    # 时间格式:Hour:Minute
    # 存储每天同步的开始时间 (默认是00:00开始) 
    # 一般用于避免高峰同步产生一些问题而设定
    sync_start_time=00:00
    
    # 时间格式:Hour:Minute
    # 存储每天同步的结束时间 (默认是23:59结束) 
    # 一般用于避免高峰同步产生一些问题而设定
    sync_end_time=23:59
    
    # 同步完N个文件后,把storage的mark文件同步到磁盘
    # 注:如果mark文件内容没有变化,则不会同步
    write_mark_file_freq=500
    
    # 存放文件时storage server支持多个路径(例如磁盘)
    # 这里配置存放文件的基路径数目,通常只配一个目录
    store_path_count=1
    
    # 逐一配置store_path的路径,索引号基于0。注意配置方法后面有0,1,2 ......,需要配置0到store_path - 1。
    # 如果不配置base_path0,那边它就和base_path对应的路径一样。
    # 路径必须存在
    store_path0=/data/fast_data
    
    # N*N 个 目录会自动创建 在 每个磁盘路径下
    # 值 可以设为1-256 默认256
    # FastDFS存储文件时,采用了两级目录。这里配置存放文件的目录个数 (系统的存储机制)
    # 如果本参数只为N(如:256),那么storage server在初次运行时,会自动创建 N * N 个存放文件的子目录。
    subdir_count_per_path=256
    
    # tracker_server 的地址列表 要写端口的 (再次提醒是主动连接tracker_server )
    # 有多个tracker server时,每个tracker server写一行
    tracker_server=192.168.178.7:22122
    tracker_server=192.168.178.10:22122
    
    # 日志级别
    log_level=debug
    
    # 操作系统运行FastDFS的用户组 (不填就是当前用户组,哪个启动进程就是哪个)
    run_by_group=
    
    # 操作系统运行FastDFS的用户 (不填就是当前用户,哪个启动进程就是哪个)
    run_by_user=
    
    # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
    # host[01-08,20-25].domain.com, for example:
    # allow_hosts=10.0.1.[1-15,20]
    # allow_hosts=host[01-08,20-25].domain.com
    # 允许连接本storage server的IP地址列表 (不包括自带HTTP服务的所有连接)
    # 可以配置多行,每行都会起作用
    allow_hosts=*
    
    # 文件在data目录下分散存储策略。
    # 0: 轮流存放,在一个目录下存储设置的文件数后(参数file_distribute_rotate_count中设置文件数),使用下一个目录进行存储。
    # 1: 随机存储,根据文件名对应的hash code来分散存储
    file_distribute_path_mode=0
    
    # 当上面的参数file_distribute_path_mode配置为0(轮流存放方式)时,本参数有效。
    # 当一个目录下的文件存放的文件数达到本参数值时,后续上传的文件存储到下一个目录中。
    file_distribute_rotate_count=100
    
    # 当写入大文件时,每写入N个字节,调用一次系统函数fsync将内容强行同步到硬盘。0表示从不调用fsync  
    # 其它值表示 写入字节为此值时,调用fsync函数
    fsync_after_written_bytes=0
    
    # 同步或刷新日志信息到硬盘的时间间隔,单位为秒
    # 注意:storage server 的日志信息不是时时写硬盘的,而是先写内存
    sync_log_buff_interval=10
    
    # 同步binglog(更新操作日志)到硬盘的时间间隔,单位为秒
    # 本参数会影响新上传文件同步延迟时间
    sync_binlog_buff_interval=10
    
    # 把storage的stat文件同步到磁盘的时间间隔,单位为秒。
    # 注:如果stat文件内容没有变化,不会进行同步
    sync_stat_file_interval=300
    
    # 线程栈的大小。FastDFS server端采用了线程方式。
    # 对于V1.x,storage server线程栈不应小于512KB;对于V2.0,线程栈大于等于128KB即可。
    # 线程栈越大,一个线程占用的系统资源就越多。
    # 对于V1.x,如果要启动更多的线程(max_connections),可以适当降低本参数值。
    thread_stack_size=512KB
    
    # 本storage server作为源服务器,上传文件的优先级
    # 可以为负数。值越小,优先级越高
    # 这里就和 tracker.conf 中store_server= 2时的配置相对应了 
    upload_priority=10
    
    # 网卡别名前缀 在linux上 你可以通过ifconfig -a 看到它
    # 多个别名需要用逗号隔开
    # 空值表示根据操作系统类型自动设置
    if_alias_prefix=
    
    ### 去重配置 ###
    # 是否检测上传文件已经存在。如果已经存在,则不存储文件内容
    # FastDHT 建立一个符号链接 以节省磁盘空间。 
    # 这个应用要配合FastDHT 使用,所以打开前要先安装FastDHT 
    # 1或yes 是检测, 0或no 是不检测
    check_file_duplicate=0
    
    # 检查文件重复时,文件内容的签名方式:
    # hash: 4个hash code
    # md5:MD5
    file_signature_method=hash
    
    # 存储文件符号连接的命名空间
    # check_file_duplicate 参数必须设置为  true / on
    key_namespace=FastDFS
    
    # 与FastDHT servers 的连接方式 (是否为持久连接) ,默认是0(短连接方式)
    # 可以考虑使用长连接(值为1),这要看FastDHT server的连接数是否够用
    keep_alive=0
    
    ### 日志配置 ###
    # 是否将文件操作记录到access log
    use_access_log = true
    
    # 是否定期轮转access log,目前仅支持一天轮转一次
    rotate_access_log = false
    
    # 时间格式:Hour:Minute
    # access log定期轮转的时间点,只有当rotate_access_log设置为true时有效
    access_log_rotate_time=00:00
    
    # 是否定期轮转error log,目前仅支持一天轮转一次
    rotate_error_log = false
    
    # 时间格式:Hour:Minute
    # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
    error_log_rotate_time=00:00
    
    # access log按文件大小轮转
    # 设置为0表示不按文件大小轮转,否则当access log达到该大小,就会轮转到新文件中
    rotate_access_log_size = 0
    
    # error log按文件大小轮转
    # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
    rotate_error_log_size = 0
    
    # 是否保留日志文件
    # 0 为不删除旧日志文件
    log_file_keep_days = 0
    
    # 文件同步的时候,是否忽略无效的binlog记录
    file_sync_skip_invalid_record=false
    
    # 是否使用连接池
    use_connection_pool = false
    
    # 关闭 闲置连接的 时间
    # 默认3600秒
    connection_pool_max_idle_time = 3600
    
    # 如果存储服务器域名是空的 则使用ip地址
    # storage server上web server域名,通常仅针对单独部署的web server
    # 这样URL中就可以通过域名方式来访问storage server上的文件了
    # 这个参数为空就是IP地址的方式。
    http.domain_name=
    
    # 存储服务器 使用的web端口 
    http.server_port=9101

    (3) nginx配置文件

    vim /apps/fastdfs/storage1/conf/nginx.conf

    配置文件内容:

    worker_processes  1;
    error_log  /data/fast_data/logs/nginx-error.log;
    
    events {
        worker_connections  1024;
    }
    
    http {
        include       mime.types;
        default_type  application/octet-stream;
    
        log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                          '$status $body_bytes_sent "$http_referer" '
                          '"$http_user_agent" "$http_x_forwarded_for"';
    
        access_log  /data/fast_data/logs/nginx-access.log  main;
        sendfile        on;
        keepalive_timeout  65;
    
        server {
            #监听的端口, 与storage.conf中的http.server_port值一致
            listen       9101;
            #nginx安装机器的ip,可以是具体的ip,也可以是localhost
            server_name  localhost;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
    
            location ~ /group1/M00 {
                        #/data/fast_data与图片上传的路径一致
                        root /data/fast_data/data;
                        ngx_fastdfs_module;
            }
    
            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                root   html;
            }
        }
    }

    (4) fastdfs-nginx-module 配置文件:mod_fastdfs.conf

    vim /apps/fastdfs/storage1/conf/mod_fastdfs.conf

    内容:

    connect_timeout=30
    network_timeout=30
    base_path=/data/fast_data
    load_fdfs_parameters_from_tracker=true
    storage_sync_file_max_delay = 86400
    use_storage_id = false
    storage_ids_filename = storage_ids.conf
    # tracker 服务器的 IP 地址以及端口号
    tracker_server=192.168.178.7:22122
    tracker_server=192.168.178.10:22122
    
    # storage 服务器的端口号
    storage_server_port=23002
    
    # 当前服务器的 group 名
    group_name=group1
    
    # 文件 url 中是否有 group 名
    url_have_group_name = true
    
    # 存储路径个数,需要和 store_path 个数匹配
    store_path_count=1
    
    # 存储路径
    store_path0=/data/fast_data
    # 日志级别
    log_level=info
    log_filename=
    response_mode=proxy
    if_alias_prefix=
    flv_support = true
    flv_extension = flv
    
    # 设置组的个数
    # set the group count
    # set to none zero to support multi-group
    # set to 0  for single group only
    # groups settings section as [group1], [group2], ..., [groupN]
    # default value is 0 # since v1.14
    group_count = 0
    
    #include http.conf

    (5) 写入/apps/fastdfs/storage1/conf/storage.sh

    #!/bin/sh
    /data/fastdfs/storage/fdfs_storaged /etc/fdfs/storage.conf
    /etc/nginx/sbin/nginx
    tail -f /data/fast_data/logs/storaged.log

    (6) FastDFS 客户端配置:client.conf

    vim /apps/fastdfs/storage1/conf/client.conf

    内容为:

    # connect timeout in seconds
    # default value is 30s
    connect_timeout=30
    
    # network timeout in seconds
    # default value is 30s
    network_timeout=30
    
    # the base path to store log files
    base_path=/data/fastdfs/test
    
    # tracker_server can ocur more than once, and tracker_server format is
    #  "host:port", host can be hostname or ip address
    
    tracker_server=192.168.178.7:22122
    tracker_server=192.168.178.10:22122
    
    #standard log level as syslog, case insensitive, value list:
    ### emerg for emergency
    ### alert
    ### crit for critical
    ### error
    ### warn for warning
    ### notice
    ### info
    ### debug
    log_level=info
    
    # if use connection pool
    # default value is false
    # since V4.05
    use_connection_pool = false
    
    # connections whose the idle time exceeds this time will be closed
    # unit: second
    # default value is 3600
    # since V4.05
    connection_pool_max_idle_time = 3600
    
    # if load FastDFS parameters from tracker server
    # since V4.05
    # default value is false
    load_fdfs_parameters_from_tracker=false
    
    # if use storage ID instead of IP address
    # same as tracker.conf
    # valid only when load_fdfs_parameters_from_tracker is false
    # default value is false
    # since V4.05
    use_storage_id = false
    
    # specify storage ids filename, can use relative or absolute path
    # same as tracker.conf
    # valid only when load_fdfs_parameters_from_tracker is false
    # since V4.05
    storage_ids_filename = storage_ids.conf
    
    #HTTP settings
    http.tracker_server_port=80
    
    #use "#include" directive to include HTTP other settiongs
    ##include http.conf

    (7) 运行docker容器

    docker run -d --name storage1 --net=host --restart always 
    -v /etc/localtime:/etc/localtime 
    -v /apps/fastdfs/storage1/data:/data/fast_data/ 
    -v /apps/fastdfs/storage1/conf/storage.sh:/storage.sh 
    -v /apps/fastdfs/storage1/conf/storage.conf:/etc/fdfs/storage.conf 
    -v /apps/fastdfs/storage1/conf/nginx.conf:/etc/nginx/conf/nginx.conf  
    -v /apps/fastdfs/storage1/conf/mod_fastdfs.conf:/etc/fdfs/mod_fastdfs.conf 
    -v /apps/fastdfs/storage1/conf/client.conf:/data/fastdfs/conf/client.conf 
    morunchang/fastdfs sh storage.sh

    (8) 查看docker日志是否正常

    docker logs storage1

    (9) 开启防火墙端口:23002、9101

    # 开启防火墙端口:23002、9101
    # -A INPUT -p tcp -m state --state NEW -m tcp --dport 23002 -j ACCEPT
    # -A INPUT -p tcp -m state --state NEW -m tcp --dport 9101 -j ACCEPT
    vim /etc/sysconfig/iptables
    # 重启防火墙
    systemctl restart iptables.service

    4. 验证fastdfs是否安装成功

    说明:以下操作在node01中进行。

    (1) 查看FastDFS监控状态

    docker exec -it storage1 fdfs_monitor /data/fastdfs/conf/client.conf

    参数说明:

    tracker_server_count:2 --表示2个Tracker Server
    tracker server is 198.168.1.121:22122 --表示Leader Tracker
    group count: 1 --表示有1个group
    group name = group1 --组名称是group1
    storage server count = 2 --组内有2个storage
    active server count = 2 --活动的storage有2个
    storage server port = 23002 --storage的端口
    storage HTTP port = 9101 --storage的文件访问端口
    store path count = 1 --storage只挂了一个存储目录
    total_upload_count = 11 --总共上传了多少个文件
    total_upload_bytes = 691405 --总共上传了多少字节
    success_upload_bytes = 691405 --成功上传了多少字节
    total_download_count = 2 --总共下载了多少文件(使用java客户端)

    (2) 上传文件到FastDFS

    docker exec -it storage1 bash
    cd /data/fastdfs/conf
    # anti-steal.jpg是/data/fastdfs/conf目录下的一个文件
    fdfs_test client.conf upload anti-steal.jpg

    文件上传成功后,会提示文件访问地址,同时会自动同步到storage2,因此也可以通过storage2的IP,访问文件。

    由于storage1的http端口配置为9101,所以真正的访问地址是:

    (示例地址)http://192.168.178.7:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg
    storage2的访问地址是:
    (示例地址)http://192.168.178.10:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg

    (3) 下载文件

    curl http://192.168.178.7:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg
    curl http://192.168.178.10:9101/group1/M00/00/00/wKiyC148bKSAXxjvAABdrZgsqUU172_big.jpg

    能下载文件就表示fastdfs同步文件成功,也表示fastdfs安装配置成功。

    (4) 统计Storage文件数量

    进入storage的data目录,执行以下指令:

    cd /apps/fastdfs/storage1/data/data
    ls -lR|grep "^-"|wc -l

    或者进入data目录下的sync目录,执行以下指令:

    cat binlog.000 | wc -l

    binlog.000保存了storage中所有文件名。

  • 相关阅读:
    【AtCoder】Tenka1 Programmer Contest(C
    【AtCoder】AGC024
    【AtCoder】ARC098题解
    java反射机制详解 及 Method.invoke解释
    Spring切入点表达式常用写法
    border-radius 样式表CSS3圆角属性
    jquery判断自己是父节点的第几个子节点
    Spring事务配置的五种方式
    Spring中PropertyPlaceholderConfigurer的使用
    js中使用s(c)标签
  • 原文地址:https://www.cnblogs.com/myitnews/p/12214571.html
Copyright © 2011-2022 走看看