[转帖]Docker容器跨主机通信overlay网络的解决方案

docker,容器,主机,通信,overlay,网络,解决方案 · 浏览次数 : 0

小编点评

**Docker容器跨主机通信--overlay网络** **概述:** 该文章介绍如何使用overlay网络在两台机器上启动多个容器,并通过`docker run`命令进行配置。通过设置`configFrom`选项,可以从外部配置文件中加载配置。 **配置选项:** * `net`:设置容器使用的网络名称。默认值为`multi_host`。 * `configFrom`:设置容器从外部配置文件中加载配置。 * `Containers`:设置要运行的容器数量。 * `Options`:设置其他选项。 * `Labels`:设置容器的标签。 **配置示例:** ```yaml { "name": "container1", "configFrom": { "Network": "multi_host" }, "Containers": 2, "Options": { "Hostname": "container2" }, "Labels": { "app": "web" } } ``` **如何使用:** 1. 创建一个yaml配置文件,指定容器的配置。 2. 使用`docker run`命令运行容器。 3. 通过`docker ps`命令查看容器之间的网络连接状态。 **相关内容:** * 脚本之家以前的文章: * Docker容器跨主机通信--overlay网络 * 其他相关Docker容器跨主机通信内容: * 脚本之家文章

正文

https://www.jb51.net/article/237838.htm

 

一、Docker主机间容器通信的解决方案

Docker网络驱动

  • Overlay: 基于VXLAN封装实现Docker原生Overlay网络
  • Macvlan: Docker主机网卡接口逻辑上分为多个子接口,每个子接口标识一个VLAN。容器接口直接连接Docker主机
  • 网卡接口: 通过路由策略转发到另一台Docker主机

第三方网络项目

 隧道方案

-- Flannel: 支持UDP和VLAN封装传输方式

-- Weave: 支持UDP(sleeve模式)和 VXLAN(优先fastdb模式)

-- OpenvSwitch: 支持VXLAN和GRE协议

路由方案

Calico: 支持BGP协议和IPIP隧道。每台宿主机作为虚拟路由,通过BGP协议实现不同主机容器间通信 

二、Docker Overlay Network

Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。这样不但能够充分利用成熟的IP路由协议进程数据分发;而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。

因此,Overlay网络实际上是目前最主流的容器跨节点数据传输和路由方案。

要想使用Docker原生Overlay网络,需要满足下列任意条件

  • Docker 运行在Swarm
  • 使用键值存储的Docker主机集群

三、使用键值存储搭建Docker主机集群

需满足下列条件:

  • 集群中主机连接到键值存储,Docker支持 Consul、Etcd和Zookeeper
  • 集群中主机运行一个Docker守护进程
  • 集群中主机必须具有唯一的主机名,因为键值存储使用主机名来标识集群成员
  • 集群中linux主机内核版本在3.12+,支持VXLAN数据包处理,否则可能无法通行四、部署

4.1 系统环境

1
2
# docker -v
Docker version 17.12.0-ce, build c97c6d6

4.2 安装Consul

1
2
3
4
5
6
7
8
9
# wget https://releases.hashicorp.com/consul/0.9.2/consul_0.9.2_linux_386.zip
  
# unzip consul_1.0.6_linux_amd64.zip
# mv consul /usr/bin/ && chmod a+x /usr/bin/consul
# 启动
nohup consul agent -server -bootstrap -ui -data-dir /data/docker/consul \
> -client=172.16.200.208 -bind=172.16.200.208 &> /var/log/consul.log &
#-ui : consul 的管理界面
#-data-dir : 数据存储

4.3 节点配置Dockre守护进程连接Consul

在两台机器上都要修改

docker2

1
2
3
4
5
# vim /lib/systemd/system/docker.service
  
ExecStart=/usr/bin/dockerd  -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store consul://172.16.200.208:8500 --cluster-advertise 172.16.200.208:2375
# systemctl daemon-reload
# systemctl restart docker

docker3

1
2
3
4
5
# vim /lib/systemd/system/docker.service
  
ExecStart=/usr/bin/dockerd  -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store consul://172.16.200.208:8500 --cluster-advertise 172.16.200.223:2375
# systemctl daemon-reload
# systemctl restart docker

4.4 查看consul 中的节点信息

http://172.16.200.208:8500

4.5 创建overlay网络  

1
2
3
4
5
6
7
8
9
10
# docker network create -d overlay multi_host
53b042104f366cde2cc887e7cc27cde52222a846c1141690c93e1e17d96120c5
  
# docker network ls
NETWORK ID          NAME                  DRIVER              SCOPE
3f5ff55c93e6        bridge                bridge              local
1e3aff32ba48        composelnmp_default   bridge              local
0d60b988fe59        composetest_default   bridge              local
b4cf6d623265        host                  host                local
53b042104f36        multi_host

  -d : 指定创建网络的类型

  另一台机器会自动同步新建的网络

  详细信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
# docker network inspect multi_host
[
    {
        "Name": "multi_host",
        "Id": "53b042104f366cde2cc887e7cc27cde52222a846c1141690c93e1e17d96120c5",
        "Created": "2018-03-07T16:23:38.682906025+08:00",
        "Scope": "global",
        "Driver": "overlay",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "10.0.0.0/24",
                    "Gateway": "10.0.0.1"
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {},
        "Options": {},
        "Labels": {}
    }
]

4.6 使用overlay网络启动容器

  分别在两台机器上使用overlay网络启动一个容器

1
# docker run -it --net=multi_host busybox

这两个节点上的容器的ip分别为: 

1
2
3
4
5
6
7
8
9
[root@docker2 ~]# docker run -it --net=multi_host busybox
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:0A:00:00:02
          inet addr:10.0.0.2  Bcast:10.0.0.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1450  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
1
2
3
4
5
6
7
8
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:0A:00:00:03
          inet addr:10.0.0.3  Bcast:10.0.0.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1450  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)

它们之间是可以相互ping 通的

1
2
3
4
5
# ping 10.0.0.2
PING 10.0.0.2 (10.0.0.2): 56 data bytes
64 bytes from 10.0.0.2: seq=0 ttl=64 time=11.137 ms
64 bytes from 10.0.0.2: seq=1 ttl=64 time=0.251 ms
64 bytes from 10.0.0.2: seq=2 ttl=64 time=0.280 ms

到此这篇关于Docker容器跨主机通信--overlay网络的文章就介绍到这了,更多相关Docker容器跨主机通信内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

与[转帖]Docker容器跨主机通信overlay网络的解决方案相似的内容:

[转帖]Docker容器跨主机通信overlay网络的解决方案

https://www.jb51.net/article/237838.htm 一、Docker主机间容器通信的解决方案 Docker网络驱动 Overlay: 基于VXLAN封装实现Docker原生Overlay网络 Macvlan: Docker主机网卡接口逻辑上分为多个子接口,每个子接口标识一

[转帖]如何使用Calico实现跨主机Docker网络通信

https://blog.csdn.net/sanhewuyang/article/details/122004156 写在前面 学习K8s,学到这里,整理记忆,本文用于理解K8s网络中Calico网路方案的原理优缺点内容包括:常见的容器跨主机通信方案简介Caliao实现Container跨主机通信

[转帖]Docker 容器运行 ivorysql 之体验

当下容器运行应用已经越来越火,只要主机上能运行 Docker,就可以通过镜像来运行应用,不需要考虑环境是否满足应用的运行条件。今天就给大家分享一下使用镜像运行 ivorysql 数据库。如果你容器运行过 postgresql,那就比较容易上手了,几乎是一样的体验,稍微有点差别,后面会说明。 友情提示

[转帖]Docker容器动态添加端口

方法1 修改iptables端口映射 docker的端口映射并不是在docker技术中实现的,而是通过宿主机的iptables来实现。通过控制网桥来做端口映射,类似路由器中设置路由端口映射。 比如我们有一个容器的80端口映射到主机的8080端口,先查看iptables到底设置了什么规则:登录后复制

[转帖]docker容器跨主机网络overlay

https://www.cnblogs.com/machangwei-8/p/15757120.html 目录 拉取镜像,运行容器 浏览器上访问Consul 修改host1,host2的docker daemon配置文件 创建网络 验证 在overlay中运行容器 运行 查看一下这两个网卡 查看生成

[转帖]Flannel 环境搭建与分析

https://switch-router.gitee.io/blog/flanenl/ 介绍 Flannel是CoreOS团队针对Kubernates设计的跨主机容器网络解决方案, 它可以使集群中不同节点上运行的docker容器都具有全集群唯一的虚拟IP地址。 举个例子,在一个由3台主机节点组成系

[转帖]Flannel 环境搭建与分析

https://switch-router.gitee.io/blog/flanenl/ 介绍 Flannel是CoreOS团队针对Kubernates设计的跨主机容器网络解决方案, 它可以使集群中不同节点上运行的docker容器都具有全集群唯一的虚拟IP地址。 举个例子,在一个由3台主机节点组成系

[转帖]Docker容器日志查看与清理(亲测有效)

1. 问题 docker容器日志导致主机磁盘空间满了。docker logs -f container_name噼里啪啦一大堆,很占用空间,不用的日志可以清理掉了。 2. 解决方法 2.1 找出Docker容器日志 在linux上,容器日志一般存放在/var/lib/docker/container

[转帖]Docker系列--Docker设置系统资源限制及验证

https://www.cnblogs.com/caijunchao/p/13415386.html 1、限制容器的资源 默认情况下,容器没有资源限制,可以使用主机内核调度程序允许的尽可能多的给定资源。Docker提供了控制容器可以使用多少内存或CPU的方法,设置docker run命令的运行时配置

[转帖]docker 容器基础技术:linux cgroup 简介

https://cizixs.com/2017/08/25/linux-cgroup/ Linux cgroups 的全称是 Linux Control Groups,它是 Linux 内核的特性,主要作用是限制、记录和隔离进程组(process groups)使用的物理资源(cpu、memory、