kubernets之statefulset资源

一  了解Statefulset

  1.1  对比statefulset与RS以及RC的区别以及相同点

    • Statefulset是有状态的,而RC以及RS等是没有状态的
    • Statefulset是有序的,拥有规则的主机名和名称,而RS以及RC是无序的
    • 通常为Statefulset提供的服务一般都是创建headless service,通过headless service可以为statefulset提供唯一的DNS记录,例如一个在default的命名空间里面名为A-0的pod,提供服务的为foo的headless service,我们则可以使用a-0.foo.default.svc.cluster.local,而在ReplicaSet是行不通的
    • 当一个Statefulset管理的pod异常消失后,Statefulset会创建一个与之一摸一样的pod,包括名称,pod名称,以及后端引用的pvc等(但是新的pod不要求调度到之前pod所在的节点上)

 

    1.2  Statefulset扩所容方面的差别 

    • Statefulset的扩缩容方面,扩容方面,一般都是按照正顺往上叠加,例如已经存在2个pod它们的序号分别为0,1那么在扩容的时候下一个被增加的就是2
    • 缩容方面,可以指定哪个索引的pod被缩容,没指定就会从最高的索引删除

  1.3  Statefulset的存储方面

    • 在statefulset中每个pod都会有自己的存储,所以需要存储与pod强解耦合,可以使用之前学习到的pv以及pvc,并且每个pod都需要创建一个pvc并有一个pv与之对
    • statefulset的做法是在创建的配置的时候就创建一个或者多个pvc,而声明的pv可以由管理员提前创建也可以由系统里面的配置程序提前配置
    • 在pod扩容这块,当扩容一个pod的时候需要创建不仅仅是pod的资源包括持久化存储等
    • 到pod缩容这块,删除pod的时候不能将其关联的存储也一并删除了,这样的话在重新扩容的时候,之前pod的持久化存储的数据就无法再恢复    

  

  1.4  statefulset的保障

    • 由于statefulset的特殊性,它需要自己去独占很多系统资源或者kubernets资源,所以有一项是必须保证的,就是有2个完全相同的标记不能同时出现,一个pod必须保证statefulset的at-most-one的定义

二   创建statefulset

  2.1  一个statefulset的mainifest的配置如下所示

  

apiVersion: apps/v1beta1
kind: StatefulSet
metadata:
  name: kubia
spec:
  serviceName: kubia
  replicas: 2
  template:
    metadata:
      labels:
        app: kubia
    spec:
      containers:
      - name: kubia
        image: luksa/kubia-pet
        ports:
        - name: http
          containerPort: 8080
        volumeMounts:
        - name: data
          mountPath: /var/data
  volumeClaimTemplates:
  - metadata:
      name: data
    spec:
      resources:
        requests:
          storage: 1Mi
      accessModes:
      - ReadWriteOnce
  • statefulset基本和RC,RS,Deployment很类似拥有副本数量模版以及标签并且还可以定义关联的headless的svc
  • 同时在下面引入了一个新的字段用来定义statefulset的每个pod的pvc 

  

  2.2  创建三个hostpath类型的pvc

kind: List
apiVersion: v1
items:
- apiVersion: v1
  kind: PersistentVolume
  metadata:
    name: pv-a
    labels:
      type: local
  spec:
    capacity:
      storage: 10Mi
    accessModes:
      - ReadWriteOnce
    persistentVolumeReclaimPolicy: Recycle
    hostPath:
      path: "/tmp/pv-a"
- apiVersion: v1
  kind: PersistentVolume
  metadata:
    name: pv-b
    labels:
      type: local
  spec:
    capacity:
      storage: 10Mi
    accessModes:
      - ReadWriteOnce
    persistentVolumeReclaimPolicy: Recycle
    hostPath:
      path: "/tmp/pv-b"
- apiVersion: v1
  kind: PersistentVolume
  metadata:
    name: pv-c
    labels:
      type: local
  spec:
    capacity:
      storage: 10Mi
    accessModes:
      - ReadWriteOnce
    persistentVolumeReclaimPolicy: Recycle
    hostPath:
      path: "/tmp/pv-c"
  • 这里创建了一个pvc列表,里面包含了三个创建的pv
  • metadata里面有个type类型的字段如果为local,则statefulset的pv只会出现在pod被调度到的节点上面
  • 每个pv里面都包含该卷的大小,访问模式
  • 如果是hostpath类型的卷,需要添加一个hostPath参数,并且指定hostpath的存储路径

  2.3  为了方便我们对statefulset的访问,我们同时创建了一个clusterIp的service以及headless的IP,其mainifest分别如下所示

    2.3.1  clusterIP的service的mainifest

[root@node01 Chapter10]# cat kubia-service-public.yml
apiVersion: v1
kind: Service
metadata:
  name: kubia-service
spec:
  selector:
    app: kubia
  ports:
  - port: 80
    targetPort: 8080

    2.3.2  headless的service的mainifest

[root@node01 Chapter10]# cat kubia-service-public.yml
apiVersion: v1
kind: Service
metadata:
  name: kubia-service
spec:
  selector:
    app: kubia
  ports:
  - port: 80
    targetPort: 8080

  2.4  这下所有需要的资源全部都已经创建好了,我们现在来看一下集群中资源的状况

[root@node01 Chapter10]# k get pv
NAME   CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                  STORAGECLASS   REASON   AGE
pv-a   10Mi       RWO            Recycle          Bound    default/data-kubia-1                           110m
pv-b   10Mi       RWO            Recycle          Bound    default/data-kubia-2                           110m
pv-c   10Mi       RWO            Recycle          Bound    default/data-kubia-0                           110m

[root@node01 Chapter10]# k get pvc
NAME           STATUS   VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS   AGE
data-kubia-0   Bound    pv-c     10Mi       RWO                           106m
data-kubia-1   Bound    pv-a     10Mi       RWO                           105m
data-kubia-2   Bound    pv-b     10Mi       RWO                           35m

[root@node01 Chapter10]# k get svc
NAME            TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)   AGE
kubernetes      ClusterIP   10.96.0.1      <none>        443/TCP   21d
kubia           ClusterIP   None           <none>        80/TCP    46m
kubia-service   ClusterIP   10.110.201.9   <none>        80/TCP    67m

[root@node01 Chapter10]# k get statefulset
NAME    READY   AGE
kubia   3/3     106m

[root@node01 Chapter10]# tree /tmp/
/tmp/
├── pv-a
│   └── kubia.txt
├── pv-b
│   └── kubia.txt
└── pv-c
  • 第一个是我们创建的所有pv
  • 第二个是statefulset创建的pvc,并且与我们创建的pv相绑定了
  • 第三个是我们创建的2个svc
  • 第四个是我们在业务在一些列运行之后产生的存储实际所在的位置

  2.6 与statefulset关联的pod进行通信

 之前提到过我们可以通过k proxy来进行与pod通信,也可以直接与api服务器进行通信从而,我们依旧使用k proxy与pod通信,具体方案如下

curl -X POST -d "the sun is not  shining" localhost:8001/api/v1/namespaces/default/services/kubia-service/proxy/

  2.7 删除pod以及缩容扩容statefulset里面的pod

  由于statefulset管理也是的pod,这里我只阐述其中几点与RS/RC以及deployment不同的地方,其余的没提到不出意外的话都是一样的

  • 扩容pod的时候一般都是从索引的最高数添加,缩容的时候也是同样,如果指定的话就会删除指定的pod
  • 扩容pod的时候,如果有存储的话,同时也需要添加pv以及pvc
  • 缩容pod的时候,不需要删除pv以及pvc,因为一旦删除之后,之前那个pod的数据持久化就不存在了
  • 当出现无法删除的时候我们需要使用强制删除的命令,将其删除  
k delete po kubia-0 --force --grace-period 0

   2.8 一个需要注意的地方就是,犹如statefulset的特殊性,集群内部部署pod之间并无法直接通信,如果一个客户端需要拿到它们存储的数据所有数据的话,就需要对所有的pod都拿一次数据,并且由于后端挂载的servicde会随机的请求落到不同的pod上,实际上一个pod在不借助任何的外部工具下拿到所有的pod比上面描述的要男的多,这里提供一种比较好的方法用来拿到集群里面所有pod的数据方法,原理图如下所示

                   

  • 每个pod里面需要运行一个支持headless服务的SRV的记录查询
  • 请求落到任意的pod的时候,该pod会去访问所有pod的数据
  • 之后将数据统一的回复给客户端

  2.9 下面来介绍一下SRV的记录

  srv记录用来指向提供服务的服务器主机名和端口号,kubernets通过一个headless service创建SRV记录来指向pod的主机名,创建一个记录如下所示

k run -it srvlookup --image=tutum/dnsutils --rm  --restart=Never --dig SRV kubia.default.svc.cluster.local

   

       

原文地址:https://www.cnblogs.com/wxm-pythoncoder/p/14261098.html