一、emptDir
emptyDir类型的volume在pod分配到node上时被创建,kubernetes会在node上自动分配 一个目录,因此无需指定宿主机node上对应的目录文件。这个目录的初始内容为空,当Pod从node上移除时,emptyDir中的数据会被永久删除。emptyDir Volume主要用于某些应用程序无需永久保存的临时目录。
不是为了存储数据,是为了实现多个Pod之间的临时数据共享,一般用来共享日志文件,当Pod删除时,emptydir立即删除
kind: Deployment
apiVersion: apps/v1
metadata:
name: emptydir
spec:
selector:
matchLabels:
app: emptydir
template:
metadata:
labels:
app: emptydir
spec:
containers:
- name: nginx
image: nginx
volumeMounts: # 引用存储卷
- mountPath: /data/
name: emptydir-name # 引用的存储卷名称
- name: php
image: registry.cn-hangzhou.aliyuncs.com/alivnos/
volumeMounts: # 引用存储卷
- mountPath: /opt
name: emptydir-name
volumes: # 定义空的存储卷,与containers同级
- name: emptydir-name # 存储卷的名称
emptyDir: {}
二、hostPath
hostPath 类型则是映射 node 文件系统中的文件或者目录到 pod 里。在使用 hostPath 类型的存储卷时,也可以设置 type 字段,支持的类型有文件、目录、File、Socket、CharDevice 和 BlockDevice。
hostPath是挂载node 主机上的(当pod运行在那台主机上,hostPtah就相当于docker挂载到当前系统)
支持的类型:
DirectoryOrCreate:如果在给定路径上什么都不存在,那么将根据需要创建空目录,权限设置为 0755,具有与 kubelet 相同的组和属主信息。
Directory 在给定路径上必须存在的目录。
FileOrCreate 如果在给定路径上什么都不存在,那么将在那里根据需要创建空文件,权限设置为 0644,具有与 kubelet 相同的组和所有权。
File 在给定路径上必须存在的文件。
Socket 在给定路径上必须存在的 UNIX 套接字。
CharDevice 在给定路径上必须存在的字符设备。
BlockDevice 在给定路径上必须存在的块设备。
[root@k8s-m-01 ~]# kubectl explain pod.spec.volumes.hostPath
kind: Deployment
apiVersion: apps/v1
metadata:
name: emptydir
spec:
selector:
matchLabels:
app: emptydir
template:
metadata:
labels:
app: emptydir
spec:
containers:
- name: nginx
image: nginx
volumeMounts:
- mountPath: /opt
name: hostpath-name
volumes:
- name: hostpath-name
hostPath:
path: /opt #主机挂载的目录
type: DirectoryOrCreate # 没有的话自动创建,权限默认755
# type: Directory # 目录必须要存在
# type: FileOrCreate # 文件没有的话自动创建,权限默认644
# type: File # 文件必须存在
# type: Socket # 给定路径上必须有套接字文件
三、pv 和 pvc
PersistentVolume(PV)是集群中已由管理员配置的一段网络存储。 集群中的资源就像一个节点是一个集群资源。 PV是诸如卷之类的卷插件,但是具有独立于使用PV的任何单个pod的生命周期。 该API对象捕获存储的实现细节,即NFS,iSCSI或云提供商特定的存储系统。
PersistentVolumeClaim(PVC)是用户存储的请求。PVC的使用逻辑:在pod中定义一个存储卷(该存储卷类型为PVC),定义的时候直接指定大小,pvc必须与对应的pv建立关系,pvc会根据定义去pv申请,而pv是由存储空间创建出来的。pv和pvc是kubernetes抽象出来的一种存储资源。
pod的生命周期不会影响pv的生命周期,是把磁盘编程kubernetes的资源
pv是集群级资源,pvc是命名空间级资源-->使用要绑定命名空间
1.环境准备
# 每个节点都安装nfs
yum install nfs-utils -y
# 创建存储目录
[root@m01 wordpress]# mkdir -p /nfs/v{1..9}
[root@m01 wordpress]# cd /nfs/
[root@m01 nfs]# ls
v1 v2 v3 v4 v5 v6 v7 v8 v9
/vim /etc/exports
/v1 192.168.15.0/24(rw,sync,all_squash)
/nfs/v2 192.168.15.0/24(rw,sync,all_squash)
/nfs/v3 192.168.15.0/24(rw,sync,all_squash)
/nfs/v4 192.168.15.0/24(rw,sync,all_squash)
/nfs/v5 192.168.15.0/24(rw,sync,all_squash)
/nfs/v6 192.168.15.0/24(rw,sync,all_squash)
/nfs/v7 192.168.15.0/24(rw,sync,all_squash)
/nfs/v8 192.168.15.0/24(rw,sync,all_squash)
/nfs/v9 192.168.15.0/24(rw,sync,all_squash)
# 启动nfs
[root@m01 nfs]# systemctl enable --now rpcbind nfs
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
# 验证配置
[root@m01 nfs]# showmount -e
Export list for m01:
/nfs/v9 192.168.15.0/24
/nfs/v8 192.168.15.0/24
/nfs/v7 192.168.15.0/24
/nfs/v6 192.168.15.0/24
/nfs/v5 192.168.15.0/24
/nfs/v4 192.168.15.0/24
/nfs/v3 192.168.15.0/24
/nfs/v2 192.168.15.0/24
/nfs/v1 192.168.15.0/24
2.创建pv
详解
# pv 创建
# 不需要指定命名空间,pv是集群级资源
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv001
labels:
app: pv001
spec:
nfs: # 存储类型
path: /nfs/v1 # 存储的目录
server: 192.168.15.51 # server的ip
accessModes: # 访问模式
- "ReadWriteMany" # RWX,多路可读可写(常用)
# - "ReadOnlyMany" # ROX,只读,可多节点挂载
# - "ReadWriteOnce" # RWO,可读可写,只支持单个模式的挂载
persistentVolumeReclaimPolicy: Retain # 解绑pvc的回收策略-->不清理(常用)
# persistentVolumeReclaimPolicy: Recycle # 删除,只有NFS,hostPath支持
# persistentVolumeReclaimPolicy: Delete # 其他模式的清除
capacity:
storage: 2Gi # 创建的大小
部署
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv001
spec:
nfs:
path: /nfs/v1
server: 192.168.15.51
accessModes:
- "ReadWriteMany"
persistentVolumeReclaimPolicy: Retain
capacity:
storage: 2Gi
查看
[root@m01 pv]# kubectl apply -f pv.yaml
persistentvolume/pv001 created
[root@m01 pv]# kubectl get -f pv.yaml
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv001 2Gi RWX Retain Available 7s
3.创建pvc
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: pvc001
namespace: xxx # pvc是命名空间级别资源,需要定义命名空间
spec:
accessModes:
- "ReadWriteMany" # 访问模式要与创建的pv一致
resources:
requests:
storage: "2Gi"
# 选择适配的pv去进行匹配
4.使用
# 创建应用使用
kind: Deployment
apiVersion: apps/v1
metadata:
name: test-rwo
spec:
selector:
matchLabels:
app: rwo
template:
metadata:
labels:
app: rwo
spec:
containers:
- name: nginx
image: nginx
volumeMounts:
- mountPath: /opt
name: pvc001 # 使用的volumes
volumes:
- name: pvc001
persistentVolumeClaim: # 定义存储卷的类型是pvc
claimName: pvc001 # 存储卷的名字
5.综合案例
使用存储卷部署discuz,实现代码共享存储
# 创建数据库的命名空间
apiVersion: v1
kind: Namespace
metadata:
name: mysql
---
# 创建数据库
apiVersion: apps/v1
kind: Deployment
metadata:
name: mysql
namespace: mysql
spec:
selector:
matchLabels:
app: mysql
template:
metadata:
labels:
app: mysql
spec:
containers:
- name: mysql
image: mysql:5.7
imagePullPolicy: Always
env:
- name: MYSQL_ROOT_PASSWORD
value: "123456"
- name: MYSQL_DATABASE
value: discuz
---
# 创建数据库的Service
apiVersion: v1
kind: Service
metadata:
name: mysql
namespace: mysql
spec:
selector:
app: mysql
ports:
- port: 3306
targetPort: 3306
type: NodePort
---
# 创建discuz命名空间
apiVersion: v1
kind: Namespace
metadata:
name: discuz
---
# 创建discuz的pv
apiVersion: v1
kind: PersistentVolume
metadata:
name: discuz
spec:
nfs:
path: /nfs/v1
server: 192.168.15.51
accessModes:
- "ReadWriteMany"
persistentVolumeReclaimPolicy: Retain
capacity:
storage: "2Gi"
---
# 创建discuz的pvc
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: discuz
namespace: discuz
spec:
accessModes:
- "ReadWriteMany"
resources:
requests:
storage: "2Gi"
---
# 创建discuz控制器
apiVersion: apps/v1
kind: Deployment
metadata:
name: discuz
namespace: discuz
spec:
selector:
matchLabels:
app: discuz
template:
metadata:
labels:
app: discuz
spec:
containers:
- image: registry.cn-hangzhou.aliyuncs.com/k8sos/web:discuz-php-v1
name: php
imagePullPolicy: IfNotPresent
volumeMounts:
- mountPath: /usr/share/nginx/html
name: discuz
- name: nginx
image: registry.cn-hangzhou.aliyuncs.com/k8sos/web:discuz-v1
imagePullPolicy: IfNotPresent
livenessProbe:
exec:
command:
- "/bin/bash"
- "-c"
- "cat /etc/nginx/nginx.conf"
initialDelaySeconds: 0
periodSeconds: 3
timeoutSeconds: 1
successThreshold: 1
failureThreshold: 1
readinessProbe:
tcpSocket:
port: 80
initialDelaySeconds: 10
periodSeconds: 1
timeoutSeconds: 1
successThreshold: 3
failureThreshold: 1
volumeMounts:
- mountPath: /usr/share/nginx/html
name: discuz
volumes:
- name: discuz
persistentVolumeClaim:
claimName: discuz
---
# 创建discuz的Service
apiVersion: v1
kind: Service
metadata:
name: discuz
namespace: discuz
spec:
selector:
app: discuz
ports:
- port: 80
targetPort: 80
name: http
type: ClusterIP
---
kind: Ingress
apiVersion: extensions/v1beta1
metadata:
name: ingress-discuz
namespace: discuz
spec:
rules:
- host: www.discuz.com
http:
paths:
- path: /
backend:
serviceName: discuz
servicePort: 80