使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- 持久化存储(NFS网络存储)

使用,kubeadm,部署,kubernetes,k8s,安装,持久,存储,nfs,网络 · 浏览次数 : 275

小编点评

**生成内容时需要带简单的排版** **排版格式的说明:** * **空格:**用于隔间。 * **制表符:**用于换行。 * **尖括符:**用于指示字符。 * **花括符:**用于指示括号。 **示例:** ```yaml name: nginx-nfsspec replicas: 1 selector: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx volumeMounts: - name: wwwroot mountPath: /usr/share/nginx/html ports: - containerPort: 80 - containerPort: 80 volumes: - name: wwwroot nfs: server: 172.16.3.181 ``` **生成内容时需要带简单的排版** **例如:** ```yaml name: nginx-nfsspec replicas: 1 selector: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx volumeMounts: - name: wwwroot mountPath: /usr/share/nginx/html ports: - containerPort: 80 - containerPort: 80 volumes: - name: wwwroot nfs: server: 172.16.3.181 - name: root mountPath: /nfs/ ```

正文

使用 Kubeadm 部署 Kubernetes(K8S) 安装
使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- Ingress-Ngnix
Volume 是 Pod 中能够被多个容器访问的共享目录。 Kubernetes 的 Volume 定义在 Pod 上,它被一个 Pod 中的多个容 器挂载到具体的文件目录下。
Volume 与 Pod 的生命周期相同,但与容器的生命周期不相关, 当容器终止或重启时, Volume 中的数据也不会丢失。 要使用volume, pod 需要指定 volume 的类型和内容( 字段) , 和映射到容器的位置( 字段) 。
Kubernetes 支持多种类型的 Volume,包括: emptyDir、 hostPath、 gcePersistentDisk、awsElasticBlockStore、 nfs、 iscsi、 flocker、 glusterfs、 rbd、 cephfs、 gitRepo、secret、 persistentVolumeClaim、 downwardAPI、 azureFileVolume、 azureDisk、vsphereVolume、 Quobyte、 PortworxVolume、 ScaleIO。 emptyDirEmptyDir 类型的 volume
创建于 pod 被调度到某个宿主机上的时候, 而同一个 pod 内的容器都能读写 EmptyDir 中的同一个文件。 一旦这个 pod 离开了这个宿主机, EmptyDir 中的数据就会被永久删除。 所以目前 EmptyDir 类型的 volume 主要用作临时空间, 比如 Web 服务器写日志或者 tmp 文件需要的临时目录

NFS 网络存府:POD 重启,数据还存在,缺陷,需要知道NFS服务器的地址,配在 yaml中

找一台服务器,做NFS服务端

选择合适的节点部署,这边使用 K8SMaster 主节点做为nfs服务器

安装nfs

[root@k8smaster ~]# yum install -y nfs-utils
已加载插件:fastestmirror, langpacks
Loading mirror speeds from cached hostfile
 * base: mirrors.ustc.edu.cn
 * extras: mirrors.aliyun.com
 * updates: mirrors.aliyun.com
正在解决依赖关系
--> 正在检查事务
---> 软件包 nfs-utils.x86_64.1.1.3.0-0.66.el7 将被 升级
---> 软件包 nfs-utils.x86_64.1.1.3.0-0.68.el7.2 将被 更新
--> 解决依赖关系完成

依赖关系解决

============================================================================================================
 Package                    架构                     版本                    源                    大小
============================================================================================================
正在更新:
 nfs-utils                 x86_64               1:1.3.0-0.68.el7.2          updates               413 k

事务概要
============================================================================================================
升级  1 软件包

总计:413 k
Downloading packages:
Running transaction check
Running transaction test
Transaction test succeeded
Running transaction
  正在更新    : 1:nfs-utils-1.3.0-0.68.el7.2.x86_64                                                 1/2 
  清理        : 1:nfs-utils-1.3.0-0.66.el7.x86_64                                                   2/2 
  验证中      : 1:nfs-utils-1.3.0-0.68.el7.2.x86_64                                                 1/2 
  验证中      : 1:nfs-utils-1.3.0-0.66.el7.x86_64                                                   2/2 

更新完毕:
  nfs-utils.x86_64 1:1.3.0-0.68.el7.2   

完毕!
[root@k8smaster ~]# 

设置挂载路径

# 创建nfs挂载目录,
[root@k8smaster ~]# mkdir /nfs
# 配置挂载路径
[root@k8smaster ~]# vi /etc/exports
#/nfs 挂载路径   * 所有内容 (rw 读写权限)
/nfs *(rw,sync,no_root_squash,no_subtree_check) 
[root@k8smaster ~]# 

K8S node 节点安装 nfs

k8snode1、k8snode2 都进行安装

#节点安装 nfs, 会自动进行挂载--好像没生效
[root@k8snode1 ~]# yum install -y nfs-utils 
[root@k8snode1 ~]# 
# 将master 的 nfs 挂载到 节点上。
[root@k8snode3 ~]# mount -t nfs 172.16.3.181:/nfs /nfs
[root@k8snode3 ~]# chmod +x /etc/rc.d/rc.local
[root@k8snode3 ~]# echo '#nfs' >> /etc/rc.d/rc.local
[root@k8snode3 ~]# echo 'mount -t nfs 172.16.3.181:/nfs /nfs' >> /etc/rc.local

启动 nfs 服务

# 启动 nfs 服务
[root@k8smaster ~]# systemctl start nfs && systemctl enable nfs
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.

[root@k8smaster ~]# ps -ef|grep nfs
root     31990     2  0 11:23 ?        00:00:00 [nfsd4_callbacks]
root     31996     2  0 11:23 ?        00:00:00 [nfsd]
root     31997     2  0 11:23 ?        00:00:00 [nfsd]
root     31998     2  0 11:23 ?        00:00:00 [nfsd]
root     31999     2  0 11:23 ?        00:00:00 [nfsd]
root     32000     2  0 11:23 ?        00:00:00 [nfsd]
root     32001     2  0 11:23 ?        00:00:00 [nfsd]
root     32002     2  0 11:23 ?        00:00:00 [nfsd]
root     32003     2  0 11:23 ?        00:00:00 [nfsd]
root     34377 29719  0 11:29 pts/0    00:00:00 grep --color=auto nfs
[root@k8smaster ~]# 

部署应用验证

nfs-ngins.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-nfs
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx
        volumeMounts:
        - name: wwwroot
          mountPath: /usr/share/nginx/html
        ports:
        - containerPort: 80
      volumes:
        - name: wwwroot
          nfs:
            server: 172.16.3.181
            path: /nfs
# 具休内容见上
[root@k8smaster ~]# vi nfs-nginx.yaml
[root@k8smaster ~]# kubectl apply -f nfs-nginx.yaml 
deployment.apps/nginx-nfs created
[root@k8smaster ~]# kubectl get pods
NAME                         READY   STATUS    RESTARTS   AGE
javademo1-d7856c75c-czv2g    1/1     Running   0          20h
javademo1-d7856c75c-n28rs    1/1     Running   0          20h
javademo1-d7856c75c-xzqjc    1/1     Running   0          20h
nginx-f89759699-5hkdw        1/1     Running   0          26d
nginx-nfs-788564fbc8-z9srr   1/1     Running   0          3m7s
# 查看内部信息
[root@k8smaster ~]# kubectl describe pod nginx-nfs-788564fbc8-z9srr
# 进入pod 容器
[root@k8smaster ~]# kubectl exec -it nginx-nfs-788564fbc8-z9srr bash
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl kubectl exec [POD] -- [COMMAND] instead.
# 查看html目录下的内容【这时候没内容】
root@nginx-nfs-788564fbc8-z9srr:/# ls /usr/share/nginx/html/
root@nginx-nfs-788564fbc8-z9srr:/# 

# 到 nfs 服务器 创建文件【再开一个连接命令窗口】
[root@k8smaster ~]# cd /nfs/
[root@k8smaster nfs]# vi index.html
hello nfs

# 回到容器内,再看下有没有文件
root@nginx-nfs-788564fbc8-z9srr:/# ls /usr/share/nginx/html/
index.html #这时候文件就有了
root@nginx-nfs-788564fbc8-z9srr:/# 

# 对外暴露 nginx-nfs 服务
[root@k8smaster nfs]# kubectl get svc
NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)          AGE
javademo1    NodePort    10.106.43.46   <none>        8111:31452/TCP   21d
kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP          26d
nginx        NodePort    10.103.87.81   <none>        80:30339/TCP     26d
[root@k8smaster nfs]# kubectl expose deployment nginx-nfs --port=80 --type=NodePort
service/nginx-nfs exposed
[root@k8smaster nfs]# kubectl get svc
NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)          AGE
javademo1    NodePort    10.106.43.46   <none>        8111:31452/TCP   21d
kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP          26d
nginx        NodePort    10.103.87.81   <none>        80:30339/TCP     26d
nginx-nfs    NodePort    10.99.84.9     <none>        80:30205/TCP     5s
[root@k8smaster nfs]# 

image

与使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- 持久化存储(NFS网络存储)相似的内容:

使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- 持久化存储(NFS网络存储)

使用 Kubeadm 部署 Kubernetes(K8S) 安装 使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- Ingress-Ngnix Volume 是 Pod 中能够被多个容器访问的共享目录。 Kubernetes 的 Volume 定义在 Pod 上,它被一个 Po

使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- 持久化存储(PV&PVC)

使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- Ingress-Ngnix 使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- 持久化存储(NFS网络存储) NFS 存在一个弊端,需要知道NFS服务器的地址,配在 yaml 中 PV:持久化存储,对存储资源

使用 Kubeadm 部署 Kubernetes(K8S) 安装 -- Ingress-Ngnix

前置条件:使用 Kubeadm 部署 Kubernetes(K8S) 安装 安装ingress-nginx组件(在master节点执行) 通过 ip+port 号进行访问,使用 Service 里的 NodePort 实现,把端口对外暴露 缺陷:一个端口只能使用一次,一个端口对应一个应用,实际使用中

Kubernetes(K8S) kubesphere 介绍

使用 Kubeadm 部署 Kubernetes(K8S) 安装--附K8S架构图 Kubernetes(K8S) kubesphere 安装 官网地址:https://kubesphere.com.cn/ KubeSphere 是个全栈的Kubernetes容器云PaaS解决方案 KubeSphe

[转帖]555. 【kubernetes】kubeadm 集群升级

https://www.jianshu.com/p/e8abd105caa9 三年前刚刚接触 kubernetes 不久,搭建的线上交易会平台装的 kubernetes 集群使用的是 kubeadm。每年都会做一次集群升级、刷新许可证,今天再做一次升级。 官方参考链接:升级 kubeadm 集群 一

使用Cloudflare Worker加速docker镜像

前言 开发者越来越难了,现在国内的docker镜像也都️了,没有镜像要使用docker太难了,代理又很慢 现在就只剩下自建镜像的办法了 GitHub上有开源项目可以快速搭建自己的镜像库,不过还是有点麻烦,还好Cloudflare暂时还活着‍ 本文记录一下使用 Cloudf

使用C#/.NET解析Wiki百科数据实现获取历史上的今天

创建一个webapi项目做测试使用。 创建新控制器,搭建一个基础框架,包括获取当天日期、wiki的请求地址等 创建一个Http请求帮助类以及方法,用于获取指定URL的信息 使用http请求访问指定url,先运行一下,看看返回的内容。内容如图右边所示,实际上是一个Json数据。我们主要解析 大事记 部

Pybind11和CMake构建python扩展模块环境搭建

使用pybind11的CMake模板来创建拓展环境搭建 从Github上下载cmake_example的模板,切换分支,并升级pybind11子模块到最新版本 拉取pybind11使用cmake构建工具的模板仓库 git clone --recursive https://github.com/mr

说说RabbitMQ延迟队列实现原理?

使用 RabbitMQ 和 RocketMQ 的人是幸运的,因为这两个 MQ 自身提供了延迟队列的实现,不像用 Kafka 的同学那么苦逼,还要自己实现延迟队列。当然,这都是题外话,今天咱们重点来聊聊 RabbitMQ 延迟队列的实现原理,以及 RabbitMQ 实现延迟队列的优缺点有哪些? 很多人

使用FModel提取游戏资产

目录前言FModel简介FModel安装FModel使用初次使用资产预览资产导出附录dumperDumper-7生成usmap文件向游戏中注入dll 前言 这篇文章仅记录我作为初学者使用FModel工具提取某款游戏模型的过程。 FModel简介 FModel是一个开源软件,可以用于查看和提取UE4-