0


最全docker--高级篇

文章目录

之前咱们写过docker的基础:
docker的介绍、安装、基础命令、数据卷、DockerFile等方面的知识。
👉最全docker-初级篇

现在咱们开始docker的高级篇!

二、高级篇

1、Network

首先记牢Docker网络官网:https://docs.docker.com/network/

1.1、网络介绍

当前咱们搭建了docker的容器之后,容器和容器之间是需要通讯的,如果不能通讯,容器作用和价值就不大了。

比如:咱们启动了两个容器,一个项目的容器,一个Redis的容器,项目是需要链接redis的,这就构成了两个容器的网络通讯。甚至容器在不同的宿主机上,无法通讯的话,docker基本上没啥用了。

关于Docker容器的构成

Docker是基于Linux Kernel的namespace,CGroups,UnionFileSystem等技术封装成的一种自定义容器格式,从而提供了一套虚拟运行环境。

Linux Kernel:linux的内核

namespace:命名空间。他的作用是用来过隔离的,他可以隔离很多东西,比如 pid[进程]、net【网络】、mnt【挂载点】等。

CGroups:即Controller Groups,他是用来做资源限制,比如内存和CPU等。

Union File Systems:联合文件系统(也就是卷,基础篇中讲过),用来做Image和Container分层

1.2、计算机网络模型

关于docker中的分层思想,其实在计算机中很多地方,都能体现到这一思想。例如:网络模型

1.2.1、网络模型和概念模型

在这里插入图片描述

1.2.2、数据的分层封装
1.2.2.1 客户端发送请求

在这里插入图片描述解释

  • 客户端发起请求首先在应用层,生成HTTP报文请求行请求头请求体。并将HTTP协议报文发送到传输层。在这里插入图片描述
  • 传输层在此报文的基础上封装上TCP头信息,即客户端的端口,服务端的端口,并将封装过后的报文发送到网络层。
  • 网络层在此基础上继续封装上IP头信息,封装上客户端IP以及服务端IP,并将报文发送到网络接口层。
  • 网络接口层,会再封装,添加上MAC头信息,即客户端的MAC地址以及网关MAC,然后将封装好的报文转成二进制码,发到客户端
1.2.2.2 服务端接受请求

在这里插入图片描述解释:

  • 请求经过物理层的传输到达服务器后。首先需要经过网络接口层,他会将二进制的数据转成客户端封装后的报文。
  • 然后,网络接口层会从报文中先解析出MAC头信息,验证MAC是否正确。正确,则继续下一层,并将报文发送到网络层。
  • 网络层接收到报文后,进行第二层的解析,将IP头信息解析出来,并验证是否正确。正确,则将信息发送到传输层。
  • 传输层再次解析出报文中的TCP头信息,并验证服务端端口是正确,并且端口已经开放。都没问题,则将信息发送到应用层。
  • 应用层则将最后的HTTP协议报文转成HttpServletRequest对象发送给服务。

1.3、Linux中的网卡

1.3.1、查看网卡及其作用

在知道docker是如何通信的之前,先来看一下Linux的中的网卡是如何通信。毕竟原理是相通的,弄懂一个,其他的就都懂了。

[root@localhost ~]# ip a1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 00:0c:29:22:7c:7a brd ff:ff:ff:ff:ff:ff
    inet 10.19.6.104/16 brd 10.19.255.255 scope global noprefixroute ens33
       valid_lft forever preferred_lft forever
    inet6 fe80::420c:3702:e936:a686/64 scope link noprefixroute
       valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default
    link/ether 02:42:9a:99:34:1b brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
       valid_lft forever preferred_lft forever
[root@localhost ~]#

通过命令

ip a

查看系统中的所有网卡信息。
网卡名称干嘛用的lo回环网卡,也就是本地网卡,他主要是模拟网络接口层,解析报文发送给自己(解析网络地址)。
举个例子:计算机上有两个服务,服务1访问服务2,没有回环网卡,发送的数据报文就会走完传输层和网络层所有过程,再发给自己;但是有了回环网卡,就不用走这个路径,通过回环网卡解析报文,就可以发送自己。ens33网络网卡,他的作用是,与外面网络进行链接docker0docker的网卡。docker安装后,会生成一个docker的网卡

网卡配置信息解释如下:

UP: 网卡处于活动状态

BROADCAST: 支持广播

RUNNING: 网线已接入

MULTICAST: 支持组播

MTU: 最大传输单元(字节),即此接口一次所能传输的最大封包

inet: 显示IPv4地址行

inet6: 显示IPv6地址行

link/enther: 指设备硬件(MAC)地址

txqueuelen: 传输缓存区长度大小

RX packets: 接收的数据包

TX packets: 发送的数据包

errors: 总的收包的错误数量

dropped: 由于各种原因, 导致拷贝在内存过程中被丢弃

collisions: 网络信号冲突情况, 值不为0则可能存在网络故障

关于网卡的这信息的详细解释,请看👉网络基础管理

查看网卡的其他命令

[root@localhost ~]# ip link show1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
    link/ether 00:0c:29:22:7c:7a brd ff:ff:ff:ff:ff:ff
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default
    link/ether 02:42:9a:99:34:1b brd ff:ff:ff:ff:ff:ff

# 以文件的形式查看网卡[root@localhost ~]# ls /sys/class/net/
docker0  ens33  lo

在这里插入图片描述

1.3.2、网卡的配置文件

这个文件主要是给网卡配置固定IP

[root@localhost ~]# cd /etc/sysconfig/network-scripts/# 这个目录下面有好多文件,咱们就加条件筛选一下[root@localhost network-scripts]# ls | grep ifcfg
ifcfg-lo
ifcfg-ens33
----------------------------
# 自己 建的文件 dhcp的
ifcfg-ens33.dhcp.bak
# 自己建的文件 配置静态Ip
ifcfg-ens33.static.bak

根据你的网卡个数,就会有几个配置文件。

lo

对应

ifcfg-lo

ens33

对应

ifcfg-ens33

docker0

是虚拟网卡没有配置文件。

对于固定Ip的设定,这里不讲。
在这里插入图片描述

1.3.3、网卡操作
# 给网卡增加ipip addr add192.168.100.120/24 dev ens33
# 删除网卡的ipip addr delete 192.168.100.120/24 dev ens33

增加IP在这里插入图片描述

1.4、NameSpace

接下来看,第二个知识点

NameSpace

Network Namespace

是实现网络虚拟化的重要功能,它能创建多个隔离的网络空间,它们有独自的网络栈信息。不管是虚拟机还是容器,运行的时候仿佛自己就在独立的网络中。

这也就是docker的容器在运行中是如何和其他网络隔离的。

拓展知识 关于windows的网络操作👉:Windows网络命令汇总

1.4.1、NameSpace操作
1.4.1.1、namespace基本操作
#查看当前所有的namespaceip netns list
#增加一个 名为【ns1】的namespaceip netns add ns1
#删除【ns1】这个namespaceip netns delete ns1
#查看namespace【ns1】的网卡情况。exec跟docker的exec命令差不多,都可以理解为进入/登录的意思。#通过 exec登录名为【ns1】的namespace,执行【ip a】命令ip netns exec ns1 ip a

在这里插入图片描述最后形成这样的图才对。

在这里插入图片描述

1.4.1.2、namespace内网卡的启动与关闭
#----------ip命令--------------# 打开(ns1的lo)网卡ip nets exec ns1 ifup lo
# 关闭(ns1的lo)网卡ip nets exec ns1 ifdown lo
#----------link命令--------------#通过link命令来启动网卡ip netns exec ns1 iplinkset lo up
#通过link命令来关闭网卡ip netns exec ns1 iplinkset lo down

在这里插入图片描述在这里插入图片描述

1.4.2、不同namespace网卡的通讯

要想实现不同

namespace

下的网卡通讯,需要用到的技术就是:
veth pair

Virtual Ethernet Pair

,是一个成对的端口,可以实现上述功能。示意图图下:
在这里插入图片描述
接下来命令实操

#首先创建两个namespace【ns1】【ns2】#创建成对的 veth pair网卡 veth1 以及 veth2iplinkadd veth1 type veth peer name veth2
# 将网卡 veth1 交给 ns1 iplinkset veth1 netns ns1
# 将网卡 veth2 交给 ns2iplinkset veth2 netns ns2

在这里插入图片描述

#分别查询两个namespace就会发现之前新增的两个网卡ip netns exec ns1 iplinkip netns exec ns2 iplink

在这里插入图片描述

#想要通讯,需要增加ip地址。给两个网卡增加新的ip地址。注意:网卡和namespace一定要对应好ip netns exec ns1 ip addr add192.168.0.11/24 dev eth1
ip netns exec ns2 ip addr add192.168.0.11/24 dev eth2

在这里插入图片描述

#分别启动两个网卡ip netns exec ns1 iplinkset veth1 up
ip netns exec ns2 iplinkset veth2 up
# 然后需要互相pingip netns exec ns1 ping192.168.0.12
ip netns exec ns2 ping192.168.0.11

在这里插入图片描述

1.4.3、【docker】Container的NameSpace

Docker使用了Linux的Namespaces技术来进行资源隔离,如PTD Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。

按照上面的描述,docker的每个container,都会有自己的

network namespace

,并且是独立的。接下验证咱们的猜想。

  • 下载 tomcat-8.5.93
  • 使用docker pull centos:7命令,下载centos镜像(之所以使用centos,不直接使用tomcat镜像,是因为tomcat镜像里没有ip命令)
  • 创建tomcatDockerFile文件,并进行编写FROM centosMAINTAINER bugaosuniADD apache-tomcat-8.5.93.tar.gz /usr/local/ENV MYPATH /usr/localWORKDIR $MYPATH#配置tomcat环境变量ENV CATALINA_HOME /usr/local/apache-tomcat-8.5.93ENV CATALINA_BASE /usr/local/apache-tomcat-8.5.93ENV PATH$PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib:$CATALINA_HOME/bin#容器运行时监听的端口EXPOSE 8080#启动时运行tomcatCMD ["/usr/local/apache-tomcat-8.5.93/bin/catalina.sh","run"]
  • 构建自定义tomcat镜像docker build -f tomcatDockerFile -t tomcat_custom:1.0.0 .
  • 运行tomcat镜像docker run -d--name tomcat01 -p8081:8080 tomcat_custom:1.0.0docker run -d--name tomcat02 -p8082:8080 tomcat_custom:1.0.0
  • 进入容器查看ipdockerexec-it tomcat01 ip adockerexec-it tomcat02 ip a

在这里插入图片描述

通过上面的图片,咱们就可以看到,每个容器都有自己一套网卡,容器和容器是相互隔离的。
仔细看就会发现他们的网卡eth0绑定的不是同一个MAC,网卡名字也是不相同的。
他们能够相互PING的通,原理是相同的,但是他们的网卡通信却不是veth-pair技术,而是Bridge技术。

1.5、docker的Container网络模式

执行命令

docker network ls

就会发现docker中存在三种网络模式。

[root@localhost tomcat]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
b6147ac32cc8   bridge    bridge    local
8673ae77bb8a   hosthostlocal
5f2ed6e8566d   none      null      local

也就是

bridge

host

none

注意:docker的网络模式其实是4种,还有一种

container

模式,类似于

host

模式。

1.5.1、VMware虚拟机的网络模式

了解docker的网络模式之前,先来了解一下虚拟机的网络模式,毕竟一法通百法明。

打开

VMware Workstation Pro

-->虚拟机–>设置–>网络适配器。就会弹出下图。
在这里插入图片描述

  • 桥接模式:在这种模式下,VMWare虚拟出来的操作系统就像是局域网中的一台独立的主机,它可以访问网内任何一台机器。在桥接模式下,你需要手工为虚拟系统配置IP地址、子网掩码,而且还要和宿主机器处于同一网段,这样虚拟系统才能和宿主机器进行通信。同时,由于这个虚拟系统是局域网中的一个独立的主机系统,那么就可以手工配置它的TCP/IP配置信息,以实现通过局域网的网关或路由器访问互联网。即此虚拟机可以和局域网中的其他主机互相通信
  • 使用NAT模式,就是让虚拟系统借助NAT(网络地址转换)功能,通过宿主机器所在的网络来访问公网。也就是说,使用NAT模式可以实现在虚拟系统里访问互联网。NAT模式下的虚拟系统的TCP/IP配置信息是由VMnet8(NAT)虚拟网络的DHCP服务器提供的,无法进行手工修改,因此虚拟系统也就无法和本局域网中的其他真实主机进行通讯。采用NAT模式最大的优势是虚拟系统接入互联网非常简单,你不需要进行任何其他的配置,只需要宿主机器能访问互联网即可。
  • 仅主机模式:在此模式下所有的虚拟系统是可以相互通信的,但虚拟系统和真实的网络是被隔离开的。此模式下,虚拟系统和宿主机器系统是可以相互通信的,相当于这两台机器通过双绞线互连。此模式下,虚拟系统的TCP/IP配置信息(如IP地址网关地址DNS服务器等),都是由VMnet1(host-only)虚拟网络的DHCP服务器来动态分配的。
1.5.2、Bridge模式

咱们容器的网卡不是veth-pair技术生成的成对的网卡,那他们是如何PING的呢?

他们用的是Bridge,也就是咱们平常经常说的桥接模式!
在这里插入图片描述通过命令查询宿主机IP,就会发现宿主机又多了两个网卡。

对比容器内的网卡就会发现网卡的规律
在这里插入图片描述其最后的网卡示意图,是如下所示的。
在这里插入图片描述容器的网卡都在各自的容器内,和容器通讯的网卡则在宿主机上,

eth0@if11

vethb598148@if10

则构成了成对的网卡。而宿主机上的两个网卡

vethb598148@if10

veth7736952@if14

则都在

docker0网桥

中。

咱们使用

ip netns list

发现不了

docker0网桥

的,那如何验证宿主机上的两个网卡都在

docker0

中呢?

开始验证

#安装 网桥工具  bridge-utils
yum install bridge-utils
#执行命令
brctl show

#创建名为<网桥名>的网桥
 brctl addbr <网桥名>#卸载网桥上的端口
brctl delif <网桥名><端口名>#查看是否有网桥网卡名 ifconfig#关闭此网卡 ifconfig<网桥名> down 
#删除网桥
brctl delbr <网桥名>

在这里插入图片描述这个时候,咱么就会发现这网桥

docker0

存在连个

interfaces

分别对应咱们宿主机上的两个网卡。那现在这张图,证明咱们上面画的那张图是正确的。

这种网络连接方式,咱们叫Bridge,也就是网桥技术。

容器默认的网络是桥接模式(自己搭建的网络默认使用桥接模式,启动容器默认也是使用桥接模式)。

此模式会为每一个容器分配、设置IP等,并将容器连接到一个

docker0虚拟网桥

,通过

docker0网桥

以及

Iptables nat

表配置与宿主机通信。

在这里插入图片描述
查看docker的网络模式

通过执行

docker network inspect bridge

就会发现,咱们的两个容器

tomcat01

tomcat02

都是桥接的。

[root@localhost tomcat]# docker network inspect bridge[{"Name":"bridge",
        "Id":"b6147ac32cc846ab99901aa99d7ec2f820d36e5733acf4bbacee874f07e1205e",
        "Created":"2023-10-08T09:09:09.869331457+08:00",
        "Scope":"local",
        "Driver":"bridge",
        "EnableIPv6": false,
        "IPAM":{"Driver":"default",
            "Options": null,
            "Config":[{"Subnet":"172.17.0.0/16",
                    "Gateway":"172.17.0.1"}]},
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom":{"Network":""},
        "ConfigOnly": false,
        "Containers":{"3fe29022223db713b5f3c68bab32355dab8affba51bfaf9b2bb78225884afc13":{"Name":"tomcat02",
                "EndpointID":"1f114af77950c6c93b93276cb6d27a78560da0bc4d46eac060ff8e43dd3092e1",
                "MacAddress":"02:42:ac:11:00:03",
                "IPv4Address":"172.17.0.3/16",
                "IPv6Address":""},
            "8469dc9851ec7ce9922c9e3e26ffd81ef9ab08c89553307cb1da76b1198cb8e2":{"Name":"tomcat01",
                "EndpointID":"9c5d485714eb293a31e64f744a36be714fc78117aec4ceebc7d64e4547348fc3",
                "MacAddress":"02:42:ac:11:00:02",
                "IPv4Address":"172.17.0.2/16",
                "IPv6Address":""}},
        "Options":{"com.docker.network.bridge.default_bridge":"true",
            "com.docker.network.bridge.enable_icc":"true",
            "com.docker.network.bridge.enable_ip_masquerade":"true",
            "com.docker.network.bridge.host_binding_ipv4":"0.0.0.0",
            "com.docker.network.bridge.name":"docker0",
            "com.docker.network.driver.mtu":"1500"},
        "Labels":{}}]
1.5.3、host模式

Host:在此模式下,容器将共享主机的网络堆栈,并且主机的所有接口都可供容器使用。容器的主机名将与主机系统上的主机名匹配。

这就意味着,host模式下的容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口范围,和宿主机共用一个

Network Namespace

使用host模式的容器可以直接使用宿主机的Ip地址与外界通信,容器内部的服务端口也可以使用宿主机的端口,不需要进行NAT,host最大的优势就是网络性能比较好,但是已经使用的端口就不能再用了,即同一个端口只能同时被一个容器服务绑定,网络的隔离性不好。

如何指定容器为host模式?

docker run -d--name tomcat-host --networkhost tomcat_custom:1.0.0

在这里插入图片描述当前容器

tomcat-host

的网卡跟宿主机的完全一样。

#查看docker下host模式的信息docker network inspect host

在这里插入图片描述host模式下

Container

内就会存在

tomcat-host

。而且还会看到

IPv4Address

MACAddress

都是空,docker并没有为容器虚拟这些信息。

1.5.4、Container模式

这个模式和

host模式

很像。host模式是和宿主机共用一个

Network Namespace

,但是

container模式

是和已经存在的容器共用一个

Network Namespace

此模式下:新创建的容器不会创建自己的网卡,不会配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样两个容器除了网络方面相同之外,其他的如文件系统、进程列表等还是隔离的。

注意:

  • 当前模式下的容器依赖于其他的容器,如果第一个以bridge方式启动的容器服务挂掉,后面依赖它的容器,都暂停服务。
  • 使用此模式,容器一多,依赖关系就会变多,关系之类的就会很乱。企业开发一般不使用此模式,因为太坑。

如何指定容器为Container模式?

docker run -d--name tomcat-container --net=container:容器ID或容器名称 tomcat_custom:1.0.0

在这里插入图片描述可以看到

Container模式

下的容器

tomcat-container

bridge模式

tomcat01

的网卡信息完全一样。

1.5.5、None模式

None模式不会为容器配置任何IP,也不能访问外部网络以及其他容器,它具有环回地址,可用于运行批处理作业。

如何指定容器为None模式?

docker run -d--name tomcat-none --net=none tomcat_custom:1.0.0

通过下面两图就会发现,当前模式下只有一个

lo

网卡。
在这里插入图片描述在这里插入图片描述

1.5.6、自定义Network
#-----------网络---------------#创建网络docker network create 网络名称 -d 模式 --subnet=网段/位数 --gateway=网关
#示例docker network create tomcat-net -d bridge --subnet=172.16.0.0/16 --gateway=172.16.0.1
#删除网络docker network rm  tomcat-net
#查看网络信息docker network inspect tomcat-net
#-----------容器与网络---------------#创建容器,并指定网络docker run -d--name custom-net-tomcat --network tomcat-net tomcat_cusotm:1.0.0
#自定义的网络,其他容器是无法访问的。tomcat01容器链接tomcat-net网络docker network connect tomcat-net tomcat01
#容器与网络断开docker network disconnect tomcat-net tomcat01

在这里插入图片描述创建新的容器,并指定网络。发现ip跟之前的完全不一样。然后,在新建网络的容器中PING旧容器的IP,发现PING不通。
在这里插入图片描述

注意:

  • 容器custom-tomcat-net 链接的网络 tomcat-net,在网络tomcat-net中ip为172.16.0.2
  • 容器tomcat01容器tomcat02 链接的网络 bridge,ip分别为 172.17.0.2172.17.0.3

然后给 tomcat01增加新的网络

tomcat-net

在这里插入图片描述最后发现,要想PING通tomcat01,不能

ping 172.26.17.0.2

,要

ping 172.16.0.3

才行。否则就要给自定义tomcat,增加新的连接网络

bridge

1.6、端口映射

1.6.1、原理

Docker容器一般默认使用的是桥接,即在宿主机虚拟出一个

Docker容器的网桥docker0


容器启动时,网桥会根据网段分配给容器一个IP地址,同时

docker0

也就成了每个容器的默认网关。多个容器都接入同一个网桥,这样容器的IP就形成同网段的IP,容器之间就能够通过容器的Container-IP直接通信。
网桥

docker0

是宿主机虚拟出来的,并不是真实存在网络设备,外部网络是无法寻址到的,这也意味着外部网络无法直接通过Container-IP访问到容器。
如果容器希望外部访问能访问到,可以通过映射容器端口到宿主主机(端口映射),即 docker run创建容器时通过

-p或-P参数

来启用,访问容器的时候就通过

[宿主机IP]:[容器端口]

访问容器 。

1.6.2、容器端口映射

容器的端口映射有四种方式:

随机端口映射

指定端口映射

指定网卡随机端口映射

指定网卡端口映射
  1. 随机端口映射 随机端口映射,就是容器的端口随机映射为宿主机的一个端口。 启动命令里,使用参数 -P``````docker run -itd-P--name tomcatPort1 tomcat_custom:1.0.0

在这里插入图片描述

  1. 指定端口映射 指定端口映射,就是把容器的端口映射为宿主机的指定端口。 启动命令里,使用参数 -p 宿主机端口:容器端口``````docker run -itd-p8080:8080 --name tomcatPort2 tomcat_custom:1.0.0在这里插入图片描述
  2. 指定网卡随机端口映射 指定网卡随机端口映射:就是把容器的端口映射为宿主机的指定网卡的随机端口。 启动命令里,使用参数-p 宿主机IP::容器端口``````docker run -itd-p192.168.57.130::8080 --name tomcatPort3 tomcat_custom:1.0.0

在这里插入图片描述

  1. **指定网卡端口映射 ** 指定网卡端口映射:就是把容器的端口映射为宿主机的指定网卡的指定端口。 启动命令里,使用参数-p 宿主机IP:宿主机端口:容器端口``````docker run -itd-p192.168.57.130:32770:8080 --name tomcatPort4 tomcat_custom:1.0.0在这里插入图片描述

1.7、多机通信

上面说的都是所有通信都是在一个宿主机内,但如果是多机通信呢?

举个例子:咱们应用服务器上有一个服务的容器,但是服务链接的数据库在另一个服务器的容器上,他们是如何通信的呢?

这通信的技术就是:

VXLAN(Virtual Extensible LAN,虚拟可扩展局域网)

其原理就是:在现有IP网络上创建一个逻辑的二层网络,实现不同物理网络之间的互通。

VXLAN是一种虚拟化技术,旨在解决传统局域网(LAN)无法覆盖大规模、分布式环境的问题。

在VXLAN中原始二层报文的基础上在进行了封装。中间的报文则决定了之后报文发送的方向。

在这里插入图片描述

具体的专业术语不予讲解

相关博客:VXLAN 基础教程:VXLAN 协议原理介绍、Linux隧道网络VxLAN、VXLAN:虚拟可扩展局域网的探究、VXLAN 技术解析-(1)VXLAN简述

2、DockerCompose

2.1、简介

Compose 是用于定义和运行多容器 Docker 应用程序的工具。

通过 Compose,您可以使用 YML 文件来配置应用程序需要的所有服务。然后,使用一个命令,就可以从 YML 文件配置中创建并启动所有服务。即一键启动所有的服务。

DockerCompose的使用步骤

  • 创建对应的DockerFile文件
  • 创建yml文件,在yml文件中编排我们的服务
  • 通过docker-compose up命令 一键运行我们的容器

2.2、compose的安装

DockerCompose官网地址

https://docs.docker.com/compose

在这里插入图片描述在这里插入图片描述

#使用github下载composesudocurl-L"https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname-s)-$(uname-m)"-o /usr/local/bin/docker-compose

#速度比较慢的话使用下面的地址:curl-L https://get.daocloud.io/docker/compose/releases/download/1.25.0/docker-compose-`uname-s`-`uname-m`> /usr/local/bin/docker-compose

#这个地方踩了一个不大不小的坑。。。#大家下载的时候看一下啊。 `uname -s`  结果是`linux`才能下载,我这下载了两次都没下载下来。最后找了半天的错误,才发现的。。。人家的名字叫`docker-compose-linux-x86_64`,我下载的是`docker-compose-Linux-x86_64`,路径不对哈,下载不下来的。#个人推荐直接进github下的docker-compose-releases页面(https://github.com/docker/compose/releases)找一下最新版本哈。#当然,如果自己有yum的话,可以执行yum安装命令。
yum install docker-compose-plugin.x86_64
#额。。。公司的网,github打不开,下不下来,我这直接yum下载的。。#使用`yum` 安装完了,使用find命令找一下安装文件。[root@localhost cli-plugins]# find / -name docker-compose
/usr/libexec/docker/cli-plugins/docker-compose

修改文件夹权限

#下载的chmod +x /usr/local/bin/docker-compose
#yum安装的chmod +x /usr/libexec/docker/cli-plugins/docker-compose

建立软连接

#想要使docker-compose命令生效,需要将这个命令,放到/usr/local/bin/下。可以建立链接,也可以直接拷贝文件。#不过我不建议拷贝文件,因为文件内部可能存在相对路径导致命令执行的失败。建议建立链接。链接大家可以理解为windows里的快捷方式。#下载的ln-s /usr/local/bin/docker-compose /usr/bin/docker-compose
#yum安装的。链接文件应该是放到/usr/bin/才对,但是不知道为啥,我这直接执行docker-compose命令的时候,linux往/usr/local/bin/下找docker-compose这个文件。emmm。。。所以我只能将链接建到/usr/local/bin/下了。ln-s /usr/libexec/docker/cli-plugins/docker-compose /usr/local/bin/docker-compose

在这里插入图片描述校验是否安装成功

docker-compose--version

在这里插入图片描述

2.3、compose初体验

注意:使用前compose前,请先确定一下当前docker的版本,是否支持你的compose文件的版本

官网:

  • compose file支持的docker版本

关于如何使用

docker-compose

官网给与了使用案例

英文的不好读,咱们按照案例执行一下:

#第一步: 在opt下创建composetest目录,并进入当前目录cd /opt;mkdir composetest;cd composetest;#第二步:创建 app.py 文件,并写入以下内容。咱们直接使用tee命令来做这件事sudotee app.py <<-'EOF'
import time

import redis
from flask import Flask

app = Flask(__name__)
cache = redis.Redis(host='redis', port=6379)

def get_hit_count():
    retries = 5
    while True:
        try:
            return cache.incr('hits')
        except redis.exceptions.ConnectionError as exc:
            if retries == 0:
                raise exc
            retries -= 1
            time.sleep(0.5)

@app.route('/')
def hello():
    count = get_hit_count()
    return 'Hello World! I have been seen {} times.\n'.format(count)
EOF#第三步:创建 requirements.txt 文件,并写入以下内容。咱们直接使用tee命令来做这件事sudotee requirements.txt <<-EOF
flask
redis
EOF#第四步:创建 Dockerfile 文件,并写入以下内容。咱们直接使用tee命令来做这件事tee Dockerfile <<-EOF
# syntax=docker/dockerfile:1
FROM python:3.7-alpine
WORKDIR /code
ENV FLASK_APP=app.py
ENV FLASK_RUN_HOST=0.0.0.0
RUN apk add --no-cache gcc musl-dev linux-headers
COPY requirements.txt requirements.txt
RUN pip install -r requirements.txt
EXPOSE 5000
COPY . .
CMD ["flask", "run"]
EOF#第五步:创建compose.yaml文件,并写入以下内容。咱们直接使用tee命令来做这件事tee compose.yaml <<-EOF
services:
  web:
    build: .
    ports:
      - "8000:5000"
  redis:
    image: "redis:alpine"
EOF#第六步:启动 composedocker compose up
注意:启动compose这个比较慢哈。。。我这整整起了3小时+。。。早上11点开始的,中午睡了一觉,1点半起来发现还没加载完。

在这里插入图片描述省略中间不知道多少日志。。。
在这里插入图片描述测试:composetest-web
在这里插入图片描述

终止Compose
在这里插入图片描述发现关闭了两个容器,和

compose.yaml

里配置的完全对的上。至于

buildx_buildkit_default

那个是pthoy的一个类库。

2.4、compose.yml规则

配置文件的规则:

  • 官网地址:Service configuration
  • 另外推荐一篇博客:docker-compose yml文件详解

这个实在是太多了。放到新的一篇文章中了:docker-compose yml文件详解

2.5、compose部署实战

2.5.1、一键部署WP博客

以WP博客为例

#1、创建该目录,并进入该目录mkdir my_wordpress;cd my_wordpress

#2、使用tee命令,创建docker-compose.yml文件,并写入内容tee docker-compose.yml <<-EOF
version: "3.9"

services:
  db:
    image: mysql:5.7
    volumes:
      - db_data:/var/lib/mysql
    restart: always
    environment:
      MYSQL_ROOT_PASSWORD: somewordpress
      MYSQL_DATABASE: wordpress
      MYSQL_USER: wordpress
      MYSQL_PASSWORD: wordpress
    
  wordpress:
    depends_on:
      - db
    image: wordpress:latest
    volumes:
      - wordpress_data:/var/www/html
    ports:
      - "8000:80"
    restart: always
    environment:
      WORDPRESS_DB_HOST: db:3306
      WORDPRESS_DB_USER: wordpress
      WORDPRESS_DB_PASSWORD: wordpress
      WORDPRESS_DB_NAME: wordpress
volumes:
  db_data: {}
  wordpress_data: {}
EOF#3、启动docker-composedocker-compose up -d

报错:

错误信息1:
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
出现该错误,是因为docker没启动哈。
使用命令启动docker
systemctl start docker

错误信息2:
no configuration file provided: not found
出现该错误,是因为当前所在目录不对,要切换到docker-compose.yml文件所在目录,再执行启动命令

在这里插入图片描述在这里插入图片描述测试,项目是否可以:
在这里插入图片描述

2.5.2、部署一个springCloud项目

临时写一个项目太麻烦了,自己现在做的项目有很多不能往外写。所以咱们以开源项目

RuoYi-Cloud-v3.5.0

为例。

下载代码:

  • 码云地址1:RuoYi-Cloud-v3.4
  • 码云地址2:RuoYi-Cloud
我这项目是github上下载的。码云上tag没有3.5.0的版本,大家注意哈!

在这里插入图片描述
写自己的

compose.yml

。。。好吧!突然发现人家给提供了。。

version:'3.8'services:ruoyi-nacos:container_name: ruoyi-nacos
    image: nacos/nacos-server
    build:context: ./nacos
    environment:- MODE=standalone
    volumes:- ./nacos/logs/:/home/nacos/logs
      - ./nacos/conf/application.properties:/home/nacos/conf/application.properties
    ports:-"8848:8848"-"9848:9848"-"9849:9849"depends_on:- ruoyi-mysql
  ruoyi-mysql:container_name: ruoyi-mysql
    image: mysql:5.7build:context: ./mysql
    ports:-"3306:3306"volumes:- ./mysql/conf:/etc/mysql/conf.d
      - ./mysql/logs:/logs
      - ./mysql/data:/var/lib/mysql
    command:['mysqld','--innodb-buffer-pool-size=80M','--character-set-server=utf8mb4','--collation-server=utf8mb4_unicode_ci','--default-time-zone=+8:00','--lower-case-table-names=1']environment:MYSQL_DATABASE:'ry-cloud'MYSQL_ROOT_PASSWORD: password
  ruoyi-redis:container_name: ruoyi-redis
    image: redis
    build:context: ./redis
    ports:-"6379:6379"volumes:- ./redis/conf/redis.conf:/home/ruoyi/redis/redis.conf
      - ./redis/data:/data
    command: redis-server /home/ruoyi/redis/redis.conf
  ruoyi-nginx:container_name: ruoyi-nginx
    image: nginx
    build:context: ./nginx
    ports:-"80:80"volumes:- ./nginx/html/dist:/home/ruoyi/projects/ruoyi-ui
      - ./nginx/conf/nginx.conf:/etc/nginx/nginx.conf
      - ./nginx/logs:/var/log/nginx
      - ./nginx/conf.d:/etc/nginx/conf.d
    depends_on:- ruoyi-gateway
    links:- ruoyi-gateway
  ruoyi-gateway:container_name: ruoyi-gateway
    build:context: ./ruoyi/gateway
      dockerfile: dockerfile
    ports:-"8080:8080"depends_on:- ruoyi-redis
    links:- ruoyi-redis
  ruoyi-auth:container_name: ruoyi-auth
    build:context: ./ruoyi/auth
      dockerfile: dockerfile
    ports:-"9200:9200"depends_on:- ruoyi-redis
    links:- ruoyi-redis
  ruoyi-modules-system:container_name: ruoyi-modules-system
    build:context: ./ruoyi/modules/system
      dockerfile: dockerfile
    ports:-"9201:9201"depends_on:- ruoyi-redis
      - ruoyi-mysql
    links:- ruoyi-redis
      - ruoyi-mysql
  ruoyi-modules-gen:container_name: ruoyi-modules-gen
    build:context: ./ruoyi/modules/gen
      dockerfile: dockerfile
    ports:-"9202:9202"depends_on:- ruoyi-mysql
    links:- ruoyi-mysql
  ruoyi-modules-job:container_name: ruoyi-modules-job
    build:context: ./ruoyi/modules/job
      dockerfile: dockerfile
    ports:-"9203:9203"depends_on:- ruoyi-mysql
    links:- ruoyi-mysql
  ruoyi-modules-file:container_name: ruoyi-modules-file
    build:context: ./ruoyi/modules/file
      dockerfile: dockerfile
    ports:-"9300:9300"volumes:- ./ruoyi/uploadPath:/home/ruoyi/uploadPath
  ruoyi-visual-monitor:container_name: ruoyi-visual-monitor
    build:context: ./ruoyi/visual/monitor
      dockerfile: dockerfile
    ports:-"9100:9100"

然后在服务器

compose.yml

文件的位置,执行

docker-compse up -d

即可。

2.5.3、部署一个springboot项目

上面那个项目,人家都弄好了,不算实操。
咱们新建一个springboot项目,引入redis,一个

DemoController

,一个无参的Post请求,返回一个简单的字符串,其他的什么都不加。

#dockerFile
FROM java:8
COPY my-0.0.1-SNAPSHOT.jar demo.jar
EXPOSE 8080
CMD ["java","-jar","demo.jar"]
#docker-compose.yml。将两个放到同一文件夹下,进行执行。
version: '3.8'
services:
  myapp:
    build: .
    image: demo
    depends_on:
      - redis
    ports:
      - "8080:8080"
  redis:
    image: "library/redis:alpine"

2.6、docker-compse的命令

2.6.1、查看版本号
#查看版本号:docker-compose version
2.6.2、执行compose文件
#执行compose文件docker-compose up 
#指定yml文件启动docker-compose up -f fileName.xml
#后台启动docker-compose up -d
2.6.3、查看所有服务/容器
# 列出工程中所有服务的容器docker-composeps# 列出工程中指定服务的容器docker-composeps tomcat
2.6.4、拉取服务依赖的镜像
#镜像拉取,拉取服务的依赖镜像。跟docker pull,不一样,docker pull是直接拉取镜像#拉取工程中所有服务依赖的镜像docker-compose pull
#拉取工程中 nginx 服务依赖的镜像docker-compose pull tomcat
#拉取镜像过程中不打印拉取进度信息docker-compose pull -q
2.6.5、查看docker-compose的images
#查看所有服务的容器所对应的镜像docker-compose images
#查看指定服务的容器所对应的镜像docker-compose images tomcat
2.6.6、启动/暂停/停止/重启/杀死服务
语法:docker-compose [start|pause|stop|restart|kill][SERVICE...]# 启动/暂停/停止/重启工程中所有服务的容器docker-compose start|pause|stop|restart|kill# 启动/暂停/停止/重启工程中指定服务的容器docker-compose start|pause|stop|restart|kill tomcat
2.6.7、删除服务
# 删除所有(停止状态)服务的容器docker-composerm# 先停止所有服务的容器,再删除所有服务的容器docker-composerm-s# 不询问是否删除,直接删除docker-composerm-f# 删除服务容器挂载的数据卷docker-composerm-v# 删除工程中指定服务的容器docker-composerm-sv nginx
2.6.8、删除服务及其所有相关内容
#停止并删除工程中所有服务的容器、网络、镜像、数据卷docker-compose down
# 停止并删除工程中所有服务的容器、网络、镜像docker-compose down --rmi all
# 停止并删除工程中所有服务的容器、网络、数据卷docker-compose down -v
2.8.9、指定端口映射
#指定服务容器的某个端口所映射的宿主机端口。 注意:端口映射还有其他语法docker-compose port tomcat 80
2.8.10、显示正在运行的进程
# 显示工程中所有服务的容器正在运行的进程docker-composetop# 显示工程中指定服务的容器正在运行的进程docker-composetop tomcat
2.8.11、进入服务
# 进入工程中指定服务的容器docker-composeexec nginx bash# 当一个服务拥有多个容器时,可通过 --index 参数进入到该服务下的任何容器docker-composeexec--index=1 tomcat bash
2.8.12、日志
# 输出日志,不同的服务输出使用不同的颜色来区分docker-compose logs
# 跟踪日志输出docker-compose logs -f# 关闭颜色docker-compose logs --no-color
2.8.13、在服务上运行命令
# 在工程中指定服务的容器上执行 echo "helloworld"docker-compose run tomcat echo"helloworld"

2.7 集群扩容scale

一般当咱们使用

docker-compose

的时候,很多时候,是会出现集群方面的管理。

一旦出现集群,就会涉及到服务的扩容,缩容等方面的问题。例如:redis,每次扩容缩容是需要修改配置文件,然后再重启服务,特麻烦。

于是,

docker-compose

就提供了这方面的功能。

#将redis服务进行扩容到5个,且后台运行。docker-compose up --scaleredis=5-d

3、常用的镜像私服仓库

3.1、Docker hub

在这里插入图片描述
在服务器上直接输入

docker login

,输入用户名密码,即可登录。
在这里插入图片描述推送之前【2.5.3】我们构建的

demo.jar

的镜像到

docker hub

#docker push 你的登录用户名/镜像名称。注意镜像名称的命名,否则push不成功docker push username/demo

下载

docker pull username/demo

如果,你想查看你推送的。可以登录官网地址:hub.docker.com,输入

username/demo

,就能查看到了。

3.2、阿里云Docker Registry

3.2.1、创建阿里云私服

访问地址:https://cr.console.aliyun.com/cn-hangzhou/instances
在这里插入图片描述
创建私人仓库:

点击创建个人实例

—>

同意授权

–>

填写仓库信息

–>

立即购买

(好像不支付也可以,忘了咋操作的了)
在这里插入图片描述

命名空间

–>

创建命名空间

在这里插入图片描述

镜像仓库

–>

创建镜像仓库

–>

下一步

在这里插入图片描述

填写代码源

–>

选择本地仓库

–>

创建镜像仓库

在这里插入图片描述

创建成功,尝试登录。
在这里插入图片描述

3.2.2、Login、push、pull

开始推送

demo

到阿里云服务器
在这里插入图片描述在这里插入图片描述
下载私有镜像
在这里插入图片描述

3.3、私服Harbor

3.3.1、简介
Harbor

是由

VMware

公司开源的企业级的

Docker Registry

管理项目,

Harbor

主要提供

Dcoker Registry

管理UI,提供的功能包括:

基于角色访问的控制权限管理(RBAC)

AD/LDAP集成

日志审核

管理界面

自我注册

镜像复制和中文支持

等。Harbor的目标是帮助用户迅速搭建一个企业级的Docker registry服务。它以Docker公司开源的registry为基础,额外提供了如下功能:

  • 基于角色的访问控制(Role Based Access Control)
  • 基于策略的镜像复制(Policy based image replication)
  • 镜像的漏洞扫描(Vulnerability Scanning)
  • AD/LDAP集成(LDAP/AD support)
  • 镜像的删除和空间清理(Image deletion & garbage collection)
  • 友好的管理UI(Graphical user portal)
  • 审计日志(Audit logging)
  • RESTful API
  • 部署简单(Easy deployment)

Harbor的所有组件都在Dcoker中部署,所以Harbor可使用Docker Compose快速部署。需要特别注意:由于Harbor是基于Docker Registry V2版本,所以docker必须大于等于1.10.0版本,docker-compose必须要大于1.6.0版本!

在这里插入图片描述
组件功能harbor-adminserver配置管理中心harbor-dbMysql数据库harbor-jobservice负责镜像复制harbor-log记录操作日志harbor-uiWeb管理页面和APInginx前端代理,负责前端页面和镜像上传/下载转发redis会话registry镜像存储

3.3.2、Harbor安装
3.3.2.1、下载
  • 官网安装教程
  • 历史版本
  • 最新下载

这玩意600MB+。。。。下载的老鸡儿慢了。。。

我这下载了好几天,重试了无数次,终于从一个百度云上下载下来了
在这里插入图片描述

3.3.2.2、安装
  1. 解压
#第一步,解压[root@manager harbor]# tar -zxcf harbor-offline-installer-v2.4.3.tgz[root@manager harbor]# ll
total 642184
drwxr-xr-x. 2 root root       1222023-12-26 10:37:58 harbor
-rw-r--r--. 1 root root 6575937232023-12-26 10:32:18 harbor-offline-installer-v2.4.3.tgz
  1. 尝试安装harbor
#第二步, 进入安装目录,开始安装harbor[root@manager harbor]# sh install.sh[Step 0]: checking ifdocker is installed ...
# 注意 docker版本太低。。。。。
Note: docker version: 1.13.1
✖ Need to upgrade docker package to 17.06.0+.
  1. 卸载旧版本docker,安装新版本docker
#第三步,卸载旧版本的docker[root@manager harbor]#  rpm -qa | grep docker
docker-buildx-plugin-0.10.4-1.el7.x86_64
docker-compose-plugin-2.21.0-1.el7.x86_64
docker-common-1.13.1-209.git7d71120.el7.centos.x86_64
docker-1.13.1-209.git7d71120.el7.centos.x86_64
docker-scan-plugin-0.23.0-3.el7.x86_64
docker-client-1.13.1-209.git7d71120.el7.centos.x86_64
[root@manager harbor]#  yum remove -y docker-buildx-plugin-0.10.4-1.el7.x86_64 docker-compose-plugin-2.21.0-1.el7.x86_64 docker-common-1.13.1-209.git7d71120.el7.centos.x86_64 docker-1.13.1-209.git7d71120.el7.centos.x86_64 docker-scan-plugin-0.23.0-3.el7.x86_64 docker-client-1.13.1-209.git7d71120.el7.centos.x86_64#第四步,安装新版本docker[root@manager harbor]# curl -fsSL https://get.docker.com/ | sh#省略日志.....具体看图片

在这里插入图片描述

#出现以上错误#Delta RPMs disabled because /usr/bin/applydeltarpm not installed#安装一下 deltrapm,重新安装docker就可以了
yum -yinstall deltarpm-3.6-3.el7.x86_64

安装完成如下所示:

在这里插入图片描述在这里插入图片描述

  1. 第二次重新安装harbor

这玩意。。。安装老慢了。。。等吧
在这里插入图片描述
出现这个错误:是因为没有提前准备配置文件。。。。。
在这里插入图片描述

  1. 准备配置文件

harbor提供了配置文件,在你当前解压目录下,有一个

harbor.yml.tmpl

,将其重命名为

harbor.yml

,修改一下几项内容即可使用。

# 修改位置1:域名或则是 IPhostname: 192.168.57.131
http:port:80#修改位置2:注释掉https相关内容#harbor默认没有https访问,如需要https,需要先生成证书。证书生成步骤 【3.3.2.3、 证书】#https:#  port: 443#  certificate: /opt/harbor/serverCert/192.168.56.131.crt #  private_key: /opt/harbor/serverCert/192.168.56.131.keyexternal_url: https://192.168.57.15
harbor_admin_password: Harbor12345
database:password: root123
  max_idle_conns:50max_open_conns:100#修改位置3:数据卷位置data_volume: /opt/harbor/data
clair:updaters_interval:12jobservice:max_job_workers:10notification:webhook_job_max_retry:10chart:absolute_url: disabled
#修改位置4:log文件位置log:level: info
  local:rotate_count:50rotate_size: 200M
    location: /opt/harbor/logs
_version: 1.10.0
proxy:http_proxy:https_proxy:no_proxy:components:- core
    - jobservice
    - clair
#修改文件,文件修改地方如上所示。[root@manager harbor]# vim harbor.yml#执行文件,准备环境[root@manager harbor]# ./prepare
prepare base dir is set to /opt/harbor/harbor
Clearing the configuration file: /config/portal/nginx.conf
Clearing the configuration file: /config/log/logrotate.conf
Clearing the configuration file: /config/log/rsyslog_docker.conf
Clearing the configuration file: /config/nginx/nginx.conf
Clearing the configuration file: /config/core/env
Clearing the configuration file: /config/core/app.conf
Clearing the configuration file: /config/registry/passwd
Clearing the configuration file: /config/registry/config.yml
Clearing the configuration file: /config/registry/root.crt
Clearing the configuration file: /config/registryctl/env
Clearing the configuration file: /config/registryctl/config.yml
Clearing the configuration file: /config/db/env
Clearing the configuration file: /config/jobservice/env
Clearing the configuration file: /config/jobservice/config.yml
Generated configuration file: /config/portal/nginx.conf
Generated configuration file: /config/log/logrotate.conf
Generated configuration file: /config/log/rsyslog_docker.conf
Generated configuration file: /config/nginx/nginx.conf
Generated configuration file: /config/core/env
Generated configuration file: /config/core/app.conf
Generated configuration file: /config/registry/config.yml
Generated configuration file: /config/registryctl/env
Generated configuration file: /config/registryctl/config.yml
Generated configuration file: /config/db/env
Generated configuration file: /config/jobservice/env
Generated configuration file: /config/jobservice/config.yml
loaded secret from file: /data/secret/keys/secretkey
Generated configuration file: /compose_location/docker-compose.yml
Clean up the input dir[root@manager harbor]# 
  1. 第三次安装harbor(成功)

在这里插入图片描述harbor依赖docker,所以咱们能够在docker里看到harbor的所有容器
在这里插入图片描述

3.3.2.3、证书

本章节关于https证书的申请。

默认情况下,Harbor不附带证书。可以在没有安全性的情况下部署Harbor,以便您可以通过HTTP连接到它。但是,只有在没有外部网络连接的空白测试或开发环境中,才可以使用HTTP。在没有空隙的环境中使用HTTP会使您遭受中间人攻击。在生产环境中,请始终使用HTTPS。如果启用

Content Trust with Notary

来正确签名所有图像,则必须使用HTTPS。

要配置HTTPS,必须创建SSL证书。您可以使用由受信任的第三方

CA签名的证书

,也可以使用

自签名证书

证书签证:证书的签发与生成

证书合并:证书合并成证书包

  • CA证书的签发与生成
咱们将证书生成到上层目录,即和data、logs同级的路径下,即 /opt/harbor/cert下
  1. 生成CA证书私钥
openssl genrsa -out ca.key 4096

在这里插入图片描述

  1. 生成CA证书

调整

-subj

选项中的值以反映您的组织。如果使用FQDN连接Harbor主机,则必须将其指定为通用名称(

CN

)属性。

# -days 表示证书有效天数,3650代表10年
openssl req -x509-new-nodes-sha512-days3650\-subj"/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=yourdomain.com"\-key ca.key \-out ca.crt

如果是 ip访问,记得 将

yourdomain.com

替换为你的ip。
在这里插入图片描述

  • 服务器证书的签发与生成
证书一般包含两个文件,一个yourdomain.com.crt 一个yourdomain.com.key 两个文件
咱们将服务器生成的证书,放到 /opt/harbor/serverCert 下。
这个地方我踩了一个坑,建议大家直接放到CA证书文件夹下,不要重新建一个文件夹,因为生成服务器证书文件,需要上面的CA证书的两个文件(cat.key、ca.crt)
  1. 生成私钥文件
#注意将 yourdomain.com更换为你自己的域名,或者是 ip
openssl genrsa -out yourdomain.com.key 4096

在这里插入图片描述

  1. 生成证书签名请求(CSR)
#调整-subj选项中的值以映射你的域名。如果使用FQDN连接Harbor主机,则必须将其指定为通用名称(CN)属性,并在密钥和CSR文件名中使用它。#注意修改yourdomain.com成你的域名,如果是ip访问,请改成你自己的IP
openssl req -sha512-new\-subj"/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=yourdomain.com"\-key yourdomain.com.key \-out yourdomain.com.csr

在这里插入图片描述

  1. 生成x509 v3扩展文件

无论您使用FQDN还是IP地址连接到Harbor主机,都必须创建此文件,以便可以为您的Harbor主机生成符合主题备用名称(SAN)和x509 v3的证书扩展要求。替换

DNS

条目以反映您的域

#使用改名的时候。需要将 DNS 的3项改成你自己的域名,如果是ip访问,需修改subjectAltName项cat> v3.ext <<-EOF
authorityKeyIdentifier=keyid,issuer
basicConstraints=CA:FALSE
keyUsage = digitalSignature, nonRepudiation, keyEncipherment, dataEncipherment
extendedKeyUsage = serverAuth
subjectAltName = @alt_names

[alt_names]
DNS.1=yourdomain.com
DNS.2=yourdomain
DNS.3=hostname
EOF

在这里插入图片描述

  1. 使用x509 v3扩展文件生成Harbor主机的证书。
#将CRS和CRT文件名中的“yourdomain.com”替换为“Harbor”主机名。
openssl x509 -req-sha512-days3650\-extfile v3.ext \-CA ca.crt -CAkey ca.key -CAcreateserial\-in yourdomain.com.csr \-out yourdomain.com.crt

如果出现下面这个错误:

[root@manager serverCert]# openssl x509 -req -sha512 -days 3650 \>-extfile v3.ext \>-CA ca.crt -CAkey ca.key -CAcreateserial\>-in192.168.57.131.csr \>-out192.168.57.131.crt
Signature ok
subject=/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=192.168.57.131
Error opening CA Certificate ca.crt
140014055364496:error:02001002:system library:fopen:No such file or directory:bss_file.c:402:fopen('ca.crt','r')140014055364496:error:20074002:BIO routines:FILE_CTRL:system lib:bss_file.c:404:
unable to load certificate

#或者是这个错误[root@manager serverCert]# openssl x509 -req -sha512 -days 3650 \>-extfile v3.ext \>-CA ca.crt -CAkey ca.key -CAcreateserial\>-in192.168.57.131.csr \>-out192.168.57.131.crt
Signature ok
subject=/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=192.168.57.131
Getting CA Private Key
CA certificate and CA private key do not match
139797921482640:error:06067099:digital envelope routines:EVP_PKEY_copy_parameters:different parameters:p_lib.c:137:
139797921482640:error:02001002:system library:fopen:No such file or directory:bss_file.c:402:fopen('ca.srl','r')139797921482640:error:20074002:BIO routines:FILE_CTRL:system lib:bss_file.c:404:
139797921482640:error:0B080074:x509 certificate routines:X509_check_private_key:key values mismatch:x509_cmp.c:343:

在这里插入图片描述

以上两种错误,都是说文件(

ca.crt

ca.srl

)找不到,出现这个错误,是因为当前文件夹下没有

CA证书文件


大家指定一下

CA的文件

路径,或者是,将现在所有的文件都拷贝到CA证书所在的文件夹下就可以了。
在这里插入图片描述

  • 提供证书给Harbor和Docker

生成后

ca.crt

192.168.57.131.crt

192.168.57.131.key

文件,必须将它们提供给

Harbor

docker

,重新配置它们。

  1. 将文件文件拷贝到harbor证书文件夹下
#将证书文件拷贝到 harbor主机的 证书文件夹下。 默认是: /data/certmkdir-p /data/cert/
cp192.168.57.131.crt /data/cert/
cp192.168.57.131.key /data/cert/ 
#这个目录 是 在上一步中 harbor.yml中  http.certificate 和 https.private_key 中配置的。#如果不改 harbor.yml, 那就需要移动文件到配置的目录下
  1. 生成docker的证书
openssl x509 -inform PEM -in192.168.57.131.crt -out192.168.57.131.cert

在这里插入图片描述

#将这个几个文件 拷贝到 docker下,注意文件夹路径,必须是这个目录下mkdir-p /etc/docker/certs.d/192.168.57.131/
cp192.168.57.131.cert 192.168.57.131.key ca.crt /etc/docker/certs.d/192.168.57.131/

如果将默认

nginx

端口443 映射到其他端口,请创建文件夹

/etc/docker/certs.d/yourdomain.com:port

/etc/docker/certs.d/harbor_IP:port

最后生成的目录如下:

/etc/docker/certs.d/
└── 192.168.57.131
    ├── ca.crt
    ├── 192.168.57.131.cert
    └── 192.168.57.131.key

重启docker

systemctl restart docker
注意:重启docker后,harbor的容器,好多是不会自动启动的,需要咱们自己手动启动harbor的容器
#停止并删除服务docker-compose down -v#推荐使用docker-compose。在安装目录下有docker-compose.yml,可是使用docker-composedocker-compose up -d

在这里插入图片描述

3.3.2.4、验证服务

根据配置

harbor.yml

配置项:

arbor_admin_password=harbor12345

,可得用户名密码:

admin

/

harbor12345 
  • Http访问

在这里插入图片描述在这里插入图片描述

  • Https 访问 *在这里插入图片描述
3.3.3、部署应用
3.3.3.1、shell登录

个人私服搭建完成。现在进行私服的登录,并进行

images

的上传下载。

#进行登录即可docker login 192.168.57.131

在这里插入图片描述

如果出现这个错误,可是看一下配置文件

harbor.yml

external_url

是否配置了。

根据博客解决harbor无法登录的问题中描述,是因为

external_url

的问题,后来经过排查确实是这个问题。

#另外因为咱们本地可能已经登陆了其他的 docker私服,或者是配置了 docker私服,导致上面的命令登录的时候,会出现错误!#推荐使用这个命令。docker login -u admin -p Harbor12345 192.168.57.131

在这里插入图片描述

3.3.3.2、创建仓库

在这里插入图片描述

3.3.3.3、上传私服
#将自己images改名 改为docker tag SOURCE_IMAGE[:TAG]192.168.57.131/private/REPOSITORY[:TAG]#示例docker tag demo:latest 192.168.57.131/private/demo:latest
#上传docker push 192.168.57.131/private/demo:latest

在这里插入图片描述
在这里插入图片描述

#下载docker pull 192.168.57.131/private/demo:latest
#或者是使用人家harbor提供的命令。不过这个命令需要在页面系统上进行复制。。。普通用户是无法登陆私服的,一般上面那个就可以使用。docker pull 192.168.57.131/private/demo@sha256:32f8cf4bf6412626b21273fed376182b6786b75182e4a19f90f3f57d01362fbb

在这里插入图片描述

4、Swarm

官网地址:https://docs.docker.com/engine/swarm/
开源代码:https://github.com/docker/swarm

4.1、简介

Swarm是Docker官方提供的一款集群管理工具,能够跨节点的容器编排,其主要作用是把若干台Docker主机抽象为一个整体,并且通过一个入口统一管理这些Docker主机上的各种Docker资源。Swarm和Kubernetes比较类似,但是更加轻,具有的功能也较kubernetes更少一些。

不同的是Docker Compose 是一个在单个服务器或主机上创建多个容器的工具,而 Docker Swarm 则可以在多个服务器或主机上创建容器集群服务,对于微服务的部署,显然 Docker Swarm 会更加适合。

从 Docker 1.12.0 版本开始,Docker Swarm 已经包含在 Docker 引擎中(docker swarm),并且已经内置了服务发现工具,我们就不需要像之前一样,再配置 Etcd 或者 Consul 来进行服务发现配置了。

4.2、大体架构

在这里插入图片描述
上面的部分,是

swarm manager

,下面的是

worker node

**

swarm manager

**,即节点(集群)管理处

管理节点处理集群管理任务:

  • 维护集群状态
  • 调度服务
  • 服务群模式HTTP API 端点

其内部使用

Raft

实现,管理器维护整个 swarm 及其上运行的所有服务的一致内部状态。出于测试目的,可以使用单个管理器运行 swarm。如果单管理器群中的管理器出现故障,您的服务会继续运行,但您需要创建一个新集群来恢复。

为了利用 swarm 模式的容错特性,Docker 建议您根据组织的高可用性要求实现奇数个节点。当您有多个管理器时,您可以在不停机的情况下从管理器节点的故障中恢复。

  • 三个管理器的群体最多可以容忍一个管理器的损失。
  • 一个五管理器群可以容忍最大同时丢失两个管理器节点。
  • 一个N管理器集群最多可以容忍管理器的丢失 (N-1)/2
  • Docker 建议一个群最多有七个管理器节点。

**

worker node

**,即工作节点

工作节点也是 Docker 引擎的实例,其唯一目的是执行容器。Worker 节点不参与 Raft 分布式状态,不做出调度决策,也不为 swarm 模式 HTTP API 提供服务。

您可以创建一个由一个管理器节点组成的群,但是如果没有至少一个管理器节点,您就不能拥有一个工作节点。默认情况下,所有经理也是工人。在单个管理器节点集群中,您可以运行类似命令

docker service create

,调度程序将所有任务放在本地引擎上。

为防止调度程序将任务放置在多节点群中的管理器节点上,请将管理器节点的可用性设置为

Drain

。调度器在

Drain

mode 中优雅地停止节点上的任务并调度

Active

节点上的任务 。调度程序不会将新任务分配给具有

Drain

可用性的节点。

4.3、工作原理

在这里插入图片描述
Swarm是典型的

master-slave结构

,通过发现服务来选举manager。manager是中心管理节点,各个node上运行agent接受manager的统一管理,集群会自动通过Raft协议分布式选举出manager节点,无需额外的发现服务支持,避免了单点的瓶颈问题,同时也内置了DNS的负载均衡和对外部负载均衡机制的集成支持。

在这里插入图片描述

  • Docker Engine client- docker service create:我们通过docker service create这个命令去创建一个服务。
  • swarm manager- API:这个请求直接由Swarm manager的API进行接收,接收命令并创建服务对象。- orchestrator:为服务创建一个任务。- allocater:为这个任务分配IP地址。- dispatcher:将任务分配到指定的节点。- scheduler:再该节点中下发指定命令。
  • worker node:接收manager任务后去运行这个任务 - container:创建相应的容器。- worker:连接到调度程序以检查分配的任务- executor:执行分配给工作节点的任务

4.4、Swarm集群搭建

在线Swarm演示:http://labs.play-with-docker.com 。通过Dock Hub 的账号密码登录即可,注意哈,有效会话4个小时。
在这里插入图片描述
如图所示,咱们需要准备三个节点,一个是

manager node

,另外两个是

work node

注意:修改另外两个节点的hostname,使其三个节点的hostname,不重复
  1. 创建manager节点
docker swarm init --advertise-addr 192.168.57.131

在这里插入图片描述

#注意:上面的执行日志,需要拿到token,以便下一步的node节点的加入docker swarm join\--token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9 \192.168.57.131:2377
  1. work点加入集群
#分别进入两个两个work节点,修改两个节点的hostname,否则通过manager查看节点的时候会无法区分。[root@localhost ~]# sudo hostnamectl set-hostname work.node.01[root@localhost ~]# hostnamectl
   Static hostname: work.node.01
         Icon name: computer-vm
           Chassis: vm
        Machine ID: f7c149e722294dd1bd78ece186af5379
           Boot ID: 62417a21b65f4b2cbc457d5e79a71d2d
    Virtualization: vmware
  Operating System: CentOS Linux 7(Core)
       CPE OS Name: cpe:/o:centos:centos:7
            Kernel: Linux 3.10.0-1160.88.1.el7.x86_64
      Architecture: x86-64

#执行上一步拿到的 token 以及 命令#=========================报错了=====================================[root@localhost ~]# docker swarm join \>--token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9 \>192.168.57.131:2377
Error response from daemon: rpc error: code =14 desc = grpc: the connection is unavailable
#==========================报错解决后====================================[root@localhost ~]# docker swarm join     --token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9     192.168.57.131:2377
This node joined a swarm as a worker.

在这里插入图片描述出现在这个错误,是因为防火墙的问题,

manager

的防火墙未关闭导致的。

#可以停掉防火墙
systemctl stop firewalld.service
#或者是开放防火墙2377端口。
firewall-cmd --add-port=2377/tcp --permanent#查看端口开发情况
firewall-cmd --zone=public --list-ports
#如果是增加开发端口后,一定重启防火墙
firewall-cmd --reload
注意:防火墙的关闭/端口开放,work节点也要加的,否则会报错。

关闭防火墙,再次使用

join

命令,重新加入

manager

在这里插入图片描述
3. 验证节点数量

#在manager上查看节点数量dockernodels#从集群中移除。注意本命令在work.node上执行docker swarm leave -fdocker swarm leave --force#错误的节点,可以(使用node的id)直接在manager删除掉dockernoderm$nodeID

在这里插入图片描述移除之后,就会发现节点

STATUS

变为

Down

。不过不知道为啥

hostname

没有发生变化。

移除之后,重新添加集群,就会发现该节点出现了。
在这里插入图片描述最后两个节点都启动起来。

在这里插入图片描述

  1. node类型转换
# 可以将worker提升成manager,从而保证manager的高可用dockernode promote worker01-node
dockernode promote worker02-node

#降级可以用demotedockernode demote worker01-node

4.5、Raft一致性协议

swarm内部使用的是raft一致性协议,这个协议只要节点半数存活,集群可用。而不是挂掉一个节点,整个集群都奔溃了!

下面验证这个结论:

  • 一主两从

停掉一个work节点

在这里插入图片描述再manager就会发现,已经启动的集群,服务还能工作。只不过切换到其他节点上了。
在这里插入图片描述停掉第二个work节点
在这里插入图片描述再manager就会发现,已经启动的集群,服务还能工作。只不过都跑到manager上了
在这里插入图片描述

work节点蹦了,也无所谓,manager会分担其压力,不会导致集群崩溃。

  • 两主一从

简单验证一下。关于work节点关闭后,集群还能正常运行,就不截图了,上面已经验证过了。总共两个manager,咱们关闭一个,看一下效果:
在这里插入图片描述
那如果咱们没有关闭work,只关闭一个manager是不是集群还能存活?验证如下:两个主节点关闭一个,剩余一个主节点,一个work节点,集群也办法运行。
在这里插入图片描述> manage宕机超过半数(包括半数),进群就会挂掉!

  • 三主零从在这里插入图片描述

停掉另外两个节点,就会发现在 第一个manager上执行

docker node ls

命令会报错,因为集群蹦了。。。。

在这里插入图片描述

三主的,再次验证了上面的结论:manage宕机超过半数(包括半数),集群就会挂掉!
Raft一致性协议:只要主节点存活超过半数,则集群存活。

4.6、镜像部署集群

在【4.4】章节,咱们搭建起来了集群,那现在咱们开始在集群上运行咱们的项目。

要想运行项目,就需要使用一个命令

docker service
4.6.1、docker service命令

在这里插入图片描述

4.6.1.1、创建service
# 跟单机启动差不多,参数啥的都是一样的。不同的是,启动时使用的命令不一样#一个是 docker run 一个是docker servicedockerservice create --name my_tomcat tomcat
4.6.1.2、查看当前swarm下的服务
dockerservicels
4.6.1.3、查看service的运行日志
dockerservice logs my_tomcat
4.6.1.4、查看service的运行在哪个节点
dockerserviceps my_tomcat
4.6.1.5、删除服务
dockerservicerm my_tomcat
4.6.1.6、扩容/缩容
#将my_tomcat服务扩容/缩容到5个dockerservice scale my_tomcat=5
4.6.1.7、查看服务详情
dockerservice inspect my_tomcat
4.6.1.8、更新以及回滚
# 更新 操作参数 太多。。。只讲几个常用的。具体的自己使用 docker service update --help 查看帮助文档
dcoker service update 
--image tomcat:9.0.6 my_tomcat #更新tomcat版本
--host-add www.baid.com:180.101.50.188 #增加host映射--argsquerylog=/opt/log #增加参数,一般用于增加一些启动参数/环境变量/运行属性--workdir xxx #指定运行目录
--dns-add #增加一个dns#如果更新出错,可是使用rollback命令dockerservice rollback my_tomcat
4.6.2、部署服务

假设咱们以

tomcat

为基础镜像,已经构建了一个自己项目的镜像

tomcat:0.0.1

,且集群已经构建完毕。

在这里插入图片描述现在咱们开始部署:

  1. 在manager上创建service
#首先在 manager 节点[root@manager tomcat]# docker service create --name my-tomcat tomcat:0.0.1
Error response from daemon: rpc error: code =4 desc = context deadline exceeded
#该错误表示找不到其他的节点,说明work节点上的端口没有开放。我加了防火墙后,问题解决。[root@manager tomcat]# docker service create --name my-tomcat tomcat:0.0.1
unable to pin image tomcat:0.0.1 to digest: manifest unknown: manifest unknown
h3l43kn3sgmnqtfvd4sgqckay

虽然上面的执行报错了,但是其实咱们执行成功了,明显的看见创建了一条新的

service

在这里插入图片描述此时节点上,都没有在运行的容器
在这里插入图片描述在这里插入图片描述

  1. 扩容
#将该服务扩容为5个dockerservice scale [serviceName]=5#将 my_tomcat 扩容为5dockerservice scale my-tomcat=5

在这里插入图片描述为啥会出现这种问题。是因为 其他的work节点,没有这个

tomcat:0.0.1

镜像,所以其他启动的时候,会被拒绝。。启动到

manager

上了…

#咱们换一个,用redis的images启动,就会发现没问题了。。。因为其他节点redis的images都有dockerservice create --name redis redis:alpine
dockerservice scale redis=5

在这里插入图片描述再次验证一下,服务都启动在manager,是不是work节点上包的问题哈

#再次验证一下是不是包的问题哈。#在每个节点上都构建一个程序包的景象 mytomcat:0.0.1docker build -f Dockerfile -t mytomcat:0.0.1 .

在这里插入图片描述在这里插入图片描述

结论:想要使用swarm,扩充集群。work节点上的镜像,也必须要构建一下。。。。怪不得,swarm现在很少人在使用。。。

另外还有多东西都没写,swarm集群进行部署服务的时候,出现各种问题,建议换个新版本的

docker

。我之前在

docker v2.0+

,碰到的swarm的各种问题,在

docker v24+

的时候,根本就没碰到过。。。

标签: docker 容器 运维

本文转载自: https://blog.csdn.net/qq_32605245/article/details/140369196
版权归原作者 杀戮苍生 所有, 如有侵权,请联系我们删除。

“最全docker--高级篇”的评论:

还没有评论