zoukankan      html  css  js  c++  java
  • k8s glusterfs,GlusterFS Volume 添加ACL支持

    glusterfs

    我们复用 kubernetes 的三台主机做 GlusterFS 存储。

    安装 GlusterFS

    我们直接在物理机上使用 yum 安装,如果你选择在 kubernetes 上安装,请参考 https://github.com/gluster/gluster-kubernetes/blob/master/docs/setup-guide.md

    # 先安装 gluster 源
    $ yum install centos-release-gluster -y
    
    # 安装 glusterfs 组件
    $ yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma glusterfs-geo-replication glusterfs-devel
    
    ## 创建 glusterfs 目录
    $ mkdir /opt/glusterd
    
    ## 修改 glusterd 目录
    $ sed -i 's/var/lib/opt/g' /etc/glusterfs/glusterd.vol
    
    # 启动 glusterfs
    $ systemctl start glusterd.service
    
    # 设置开机启动
    $ systemctl enable glusterd.service
    
    #查看状态
    $ systemctl status glusterd.service

    配置 GlusterFS

    # 配置 hosts
    
    $ vi /etc/hosts
    172.20.0.113   sz-pg-oam-docker-test-001.tendcloud.com
    172.20.0.114   sz-pg-oam-docker-test-002.tendcloud.com
    172.20.0.115   sz-pg-oam-docker-test-003.tendcloud.com
    # 开放端口
    $ iptables -I INPUT -p tcp --dport 24007 -j ACCEPT
    
    # 创建存储目录
    $ mkdir /opt/gfs_data
    # 添加节点到 集群
    # 执行操作的本机不需要 probe 本机
    [root@sz-pg-oam-docker-test-001 ~]#
    gluster peer probe sz-pg-oam-docker-test-002.tendcloud.com
    gluster peer probe sz-pg-oam-docker-test-003.tendcloud.com
    
    # 查看集群状态
    $ gluster peer status
    Number of Peers: 2
    
    Hostname: sz-pg-oam-docker-test-002.tendcloud.com
    Uuid: f25546cc-2011-457d-ba24-342554b51317
    State: Peer in Cluster (Connected)
    
    Hostname: sz-pg-oam-docker-test-003.tendcloud.com
    Uuid: 42b6cad1-aa01-46d0-bbba-f7ec6821d66d
    State: Peer in Cluster (Connected)

    配置 volume

    GlusterFS 中的 volume 的模式有很多种,包括以下几种:

    • 分布卷(默认模式):即 DHT, 也叫 分布卷: 将文件以 hash 算法随机分布到 一台服务器节点中存储。
    • 复制模式:即 AFR, 创建 volume 时带 replica x 数量: 将文件复制到 replica x 个节点中。
    • 条带模式:即 Striped, 创建 volume 时带 stripe x 数量: 将文件切割成数据块,分别存储到 stripe x 个节点中 (类似 raid 0)。
    • 分布式条带模式:最少需要 4 台服务器才能创建。 创建 volume 时 stripe 2 server = 4 个节点: 是 DHT 与 Striped 的组合型。
    • 分布式复制模式:最少需要 4 台服务器才能创建。 创建 volume 时 replica 2 server = 4 个节点:是 DHT 与 AFR 的组合型。
    • 条带复制卷模式:最少需要 4 台服务器才能创建。 创建 volume 时 stripe 2 replica 2 server = 4 个节点: 是 Striped 与 AFR 的组合型。
    • 三种模式混合: 至少需要 8 台 服务器才能创建。 stripe 2 replica 2 , 每 4 个节点 组成一个 组。

    这几种模式的示例图参考 GlusterFS Documentation

    因为我们只有三台主机,在此我们使用默认的分布卷模式。请勿在生产环境上使用该模式,容易导致数据丢失。

    # 创建分布卷
    $ gluster volume create k8s-volume transport tcp sz-pg-oam-docker-test-001.tendcloud.com:/opt/gfs_data sz-pg-oam-docker-test-002.tendcloud.com:/opt/gfs_data sz-pg-oam-docker-test-003.tendcloud.com:/opt/gfs_data force
    
    # 查看 volume 状态
    $ gluster volume info
    Volume Name: k8s-volume
    Type: Distribute
    Volume ID: 9a3b0710-4565-4eb7-abae-1d5c8ed625ac
    Status: Created
    Snapshot Count: 0
    Number of Bricks: 3
    Transport-type: tcp
    Bricks:
    Brick1: sz-pg-oam-docker-test-001.tendcloud.com:/opt/gfs_data
    Brick2: sz-pg-oam-docker-test-002.tendcloud.com:/opt/gfs_data
    Brick3: sz-pg-oam-docker-test-003.tendcloud.com:/opt/gfs_data
    Options Reconfigured:
    transport.address-family: inet
    nfs.disable: on
    
    # 启动 分布卷
    $ gluster volume start k8s-volume

    Glusterfs 调优

    # 开启 指定 volume 的配额
    $ gluster volume quota k8s-volume enable
    
    # 限制 指定 volume 的配额
    $ gluster volume quota k8s-volume limit-usage / 1TB
    
    # 设置 cache 大小, 默认 32MB
    $ gluster volume set k8s-volume performance.cache-size 4GB
    
    # 设置 io 线程, 太大会导致进程崩溃
    $ gluster volume set k8s-volume performance.io-thread-count 16
    
    # 设置 网络检测时间, 默认 42s
    $ gluster volume set k8s-volume network.ping-timeout 10
    
    # 设置 写缓冲区的大小, 默认 1M
    $ gluster volume set k8s-volume performance.write-behind-window-size 1024MB

    Kubernetes 中使用 GlusterFS

    官方的文档见https://github.com/kubernetes/examples/tree/master/staging/volumes/glusterfs.

    以下用到的所有 yaml 和 json 配置文件可以在 glusterfs 中找到。注意替换其中私有镜像地址为你自己的镜像地址。

    kubernetes 安装客户端

    # 在所有 k8s node 中安装 glusterfs 客户端
    $ yum install -y glusterfs glusterfs-fuse
    
    # 配置 hosts
    $ vi /etc/hosts
    172.20.0.113   sz-pg-oam-docker-test-001.tendcloud.com
    172.20.0.114   sz-pg-oam-docker-test-002.tendcloud.com
    172.20.0.115   sz-pg-oam-docker-test-003.tendcloud.com

    因为我们 glusterfs 跟 kubernetes 集群复用主机,因为此这一步可以省去。

    配置 endpoints

    $ curl -O https://raw.githubusercontent.com/kubernetes/kubernetes/master/examples/volumes/glusterfs/glusterfs-endpoints.json
    
    # 修改 endpoints.json ,配置 glusters 集群节点 ip
    # 每一个 addresses 为一个 ip 组
    
        {
          "addresses": [
            {
              "ip": "172.22.0.113"
            }
          ],
          "ports": [
            {
              "port": 1990
            }
          ]
        },
    
    # 导入 glusterfs-endpoints.json
    
    $ kubectl apply -f glusterfs-endpoints.json
    
    # 查看 endpoints 信息
    $ kubectl get ep

    配置 service

    $ curl -O https://raw.githubusercontent.com/kubernetes/kubernetes/master/examples/volumes/glusterfs/glusterfs-service.json
    
    # service.json 里面查找的是 enpointes 的名称与端口,端口默认配置为 1,我改成了 1990
    
    # 导入 glusterfs-service.json
    $ kubectl apply -f glusterfs-service.json
    
    # 查看 service 信息
    $ kubectl get svc

    创建测试 pod

    $ curl -O https://github.com/kubernetes/examples/raw/master/staging/volumes/glusterfs/glusterfs-pod.json
    
    # 编辑 glusterfs-pod.json
    # 修改 volumes  下的 path 为上面创建的 volume 名称
    
    "path": "k8s-volume"
    
    # 导入 glusterfs-pod.json
    $ kubectl apply -f glusterfs-pod.json
    
    # 查看 pods 状态
    $ kubectl get pods
    NAME                             READY     STATUS    RESTARTS   AGE
    glusterfs                        1/1       Running   0          1m
    
    # 查看 pods 所在 node
    $ kubectl describe pods/glusterfs
    
    # 登陆 node 物理机,使用 df 可查看挂载目录
    $ df -h
    172.20.0.113:k8s-volume  1.0T     0  1.0T   0% /var/lib/kubelet/pods/3de9fc69-30b7-11e7-bfbd-8af1e3a7c5bd/volumes/kubernetes.io~glusterfs/glusterfsvol

    配置 PersistentVolume

    PersistentVolume(PV)和 PersistentVolumeClaim(PVC)是 kubernetes 提供的两种 API 资源,用于抽象存储细节。管理员关注于如何通过 pv 提供存储功能而无需关注用户如何使用,同样的用户只需要挂载 PVC 到容器中而不需要关注存储卷采用何种技术实现。PVC 和 PV 的关系跟 pod 和 node 关系类似,前者消耗后者的资源。PVC 可以向 PV 申请指定大小的存储资源并设置访问模式。

    PV 属性

    • storage 容量
    • 读写属性:分别为
      • ReadWriteOnce:单个节点读写;
      • ReadOnlyMany:多节点只读 ;
      • ReadWriteMany:多节点读写
    $ cat glusterfs-pv.yaml
    apiVersion: v1
    kind: PersistentVolume
    metadata:
      name: gluster-dev-volume
    spec:
      capacity:
        storage: 8Gi
      accessModes:
        - ReadWriteMany
      glusterfs:
        endpoints: "glusterfs-cluster"
        path: "k8s-volume"
        readOnly: false
    
    # 导入 PV
    $ kubectl apply -f glusterfs-pv.yaml
    
    # 查看 pv
    $ kubectl get pv
    NAME                 CAPACITY   ACCESSMODES   RECLAIMPOLICY   STATUS      CLAIM     STORAGECLASS   REASON    AGE
    gluster-dev-volume   8Gi        RWX           Retain          Available                                      3s

    PVC 属性

    • 访问属性与 PV 相同
    • 容量:向 PV 申请的容量 <= PV 总容量

    配置 PVC

    $ cat glusterfs-pvc.yaml
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: glusterfs-nginx
    spec:
      accessModes:
        - ReadWriteMany
      resources:
        requests:
          storage: 8Gi
    
    # 导入 pvc
    $ kubectl apply -f glusterfs-pvc.yaml
    
    # 查看 pvc
    
    $ kubectl get pv
    NAME              STATUS    VOLUME               CAPACITY   ACCESSMODES   STORAGECLASS   AGE
    glusterfs-nginx   Bound     gluster-dev-volume   8Gi        RWX                          4s

    创建 nginx deployment 挂载 volume

    $ vi nginx-deployment.yaml
    apiVersion: extensions/v1beta1
    kind: Deployment
    metadata:
      name: nginx-dm
    spec:
      replicas: 2
      template:
        metadata:
          labels:
            name: nginx
        spec:
          containers:
            - name: nginx
              image: nginx:alpine
              imagePullPolicy: IfNotPresent
              ports:
                - containerPort: 80
              volumeMounts:
                - name: gluster-dev-volume
                  mountPath: "/usr/share/nginx/html"
          volumes:
          - name: gluster-dev-volume
            persistentVolumeClaim:
              claimName: glusterfs-nginx
    
    # 导入 deployment
    $ kubectl apply -f nginx-deployment.yaml
    
    # 查看 deployment
    $ kubectl get pods |grep nginx-dm
    nginx-dm-3698525684-g0mvt       1/1       Running   0          6s
    nginx-dm-3698525684-hbzq1       1/1       Running   0          6s
    
    # 查看 挂载
    $ kubectl exec -it nginx-dm-3698525684-g0mvt -- df -h|grep k8s-volume
    172.20.0.113:k8s-volume         1.0T     0  1.0T   0% /usr/share/nginx/html
    
    # 创建文件 测试
    $ kubectl exec -it nginx-dm-3698525684-g0mvt -- touch /usr/share/nginx/html/index.html
    
    $ kubectl exec -it nginx-dm-3698525684-g0mvt -- ls -lt /usr/share/nginx/html/index.html
    -rw-r--r-- 1 root root 0 May  4 11:36 /usr/share/nginx/html/index.html
    
    # 验证 glusterfs
    # 因为我们使用分布卷,所以可以看到某个节点中有文件
    [root@sz-pg-oam-docker-test-001 ~] ls /opt/gfs_data/
    [root@sz-pg-oam-docker-test-002 ~] ls /opt/gfs_data/
    index.html
    [root@sz-pg-oam-docker-test-003 ~] ls /opt/gfs_data/





    GlusterFS ACL 权限设置

    2019-09-23  By ADMIN

    在使用 GlusterFS 集群服务过程中,有时候我们需要对其中一个目录单独设置特殊权限;这其中可能会有个坑等着你。
    设置目录特殊的权限,有两种方式:

    1. 客户端挂载 GlusterFS 的 Volume 后,按照设置本地文件目录的方式设置。PS:只在本机生效,不影响 GlusterFS 集群。
    2. 客户端通过 setfacl 对 GlusterFS 文件集群设置目录特殊权限。PS:GlusterFS 集群生效,影响所有客户端。

    大家根据具体情况,选择合适的方式。其中第一种方式,就不再赘述,相信大家都会。这里主要说明一下第二种。

    一、问题的由来

    博主使用 Glusterfs 集群服务是为 Kubernetes 容器编排服务提供持久化共享存储的。在公司项目容器化部署完成后,开始做 Kubernetes 集群的监控工作;使用的是 Prometheus 监控服务。因为之前就是使用的 GlusterFS 做的共享存储,没有出现什么问题,就打算用其做 Prometheus 的文件存储。但是在部署 Prometheus 过程中,总是报错,提示目录没有权限。

    二、问题分析

    GlusterFS 服务使用ROOT账户运行,默认连接到 GlusterFS 的也是root账户;其创建目录的属主和属组都是root,并且禁止其他用户的写入。
    Prometheus 的容器镜像默认以普通账户运行;所以此时 Prometheus 容器中是普通账户要在 GlusterFS 的ROOT账户的目录中写入数据,所以被拒绝了。
    根据这种情况,我们应该选择第二种方式。对 GlusterFS 集群设置全局ACL 规则,使所有连接 GlusterFS 服务的客户端的普通账户对此目录默认都有写权限。

    三、处理过程

    GlusterFS ACL 规则配置;参见https://docs.gluster.org/en/latest/Administrator%20Guide/Access%20Control%20Lists/

    前提条件:当前使用的系统支持ACL 规则。

    1、设置 GlusterFS 开启ACL规则支持

    进入 Glusterfs 的集群终端,对 Volume 开启 ACL 规则支持。

    #gluster
    gluster>volume set vl_name acl on
    gluster>volume info gl_volume
    
    Volume Name: gl_volume
    Type: Distribute
    Volume ID: fda928b5-bcf9-42bb-afbd-4a61d988b167
    Status: Started
    Snapshot Count: 0
    Number of Bricks: 4
    Transport-type: tcp
    Bricks:
    Brick1: app:/opt/gluster
    Options Reconfigured:
    ------------------------------
    nfs.acl: on
    ------------------------------
    transport.address-family: inet
    nfs.disable: on
    gluster>exit

    2、客户端绑定 GlusterFS Volume 添加ACL支持选项

    客户端绑定 GlusterFS 的Volume 时,增加支持ACL的选项,使用下面的命令:
    # mount –t glusterfs -o acl
    例子:
    # mount -t glusterfs -o acl 198.192.198.234:glustervolume /mnt/gluster

    3、客户端对 GlusterFS 设置ACL规则

    这时就可以通过此客户端,对 GlusterFS 的 Volume 中的目录和文件设置ACL规则了;设置的规则会在整个 Volume 中生效。
    设置其他用户对目录有读写权限:
    setfacl -R -m o::rw- test/
    这样其他的客户端绑定此 Volume 后,也会发现 其他用户对 test 目录也有读写权限。

    上文就是过程介绍了,按照文档操作,就可以对 GlusterFS Volume 中的文件设置ACL规则,成功部署 Prometheus 容器的持久化存储了。

     
  • 相关阅读:
    第一题 (Map)利用Map,完成下面的功能:
    练习5 练习目标:继承、多态、方法的重写。
    练习4:用数组表示多重性
    练习3:修改withdraw 方法
    练习2 练习目标-使用引用类型的成员变量:在本练习中,将扩展银行项目,添加一个(客户类)Customer类。Customer类将包含一个Account对象。
    练习1:创建一个简单的银行程序包
    2.建立exception包,建立Bank类,类中有变量double balance表示存款,Bank类的构造方法能增加存款,Bank类中有取款的发方法withDrawal(double dAmount),当取款的数额大于存款时,抛出InsufficientFundsException,取款数额为负数,抛出NagativeFundsException,如new Bank(100),表示存入银行1
    总复习测试(二)
    总复习测试(一)
    新闻发布系统<分页>
  • 原文地址:https://www.cnblogs.com/cheyunhua/p/15343769.html
Copyright © 2011-2022 走看看