文章目录
之前咱们写过docker的基础:
docker的介绍、安装、基础命令、数据卷、DockerFile等方面的知识。
👉最全docker-初级篇
现在咱们开始docker的高级篇!
二、高级篇
1、Network
首先记牢Docker网络官网:https://docs.docker.com/network/
1.1、网络介绍
当前咱们搭建了docker的容器之后,容器和容器之间是需要通讯的,如果不能通讯,容器作用和价值就不大了。
比如:咱们启动了两个容器,一个项目的容器,一个Redis的容器,项目是需要链接redis的,这就构成了两个容器的网络通讯。甚至容器在不同的宿主机上,无法通讯的话,docker基本上没啥用了。
关于Docker容器的构成
Docker是基于Linux Kernel的namespace,CGroups,UnionFileSystem等技术封装成的一种自定义容器格式,从而提供了一套虚拟运行环境。
Linux Kernel:linux的内核
namespace:命名空间。他的作用是用来过隔离的,他可以隔离很多东西,比如 pid[进程]、net【网络】、mnt【挂载点】等。
CGroups:即Controller Groups,他是用来做资源限制,比如内存和CPU等。
Union File Systems:联合文件系统(也就是卷,基础篇中讲过),用来做Image和Container分层
1.2、计算机网络模型
关于docker中的分层思想,其实在计算机中很多地方,都能体现到这一思想。例如:网络模型
1.2.1、网络模型和概念模型

1.2.2、数据的分层封装
1.2.2.1 客户端发送请求
解释
- 客户端发起请求首先在应用层,生成
HTTP报文的请求行,请求头,请求体。并将HTTP协议报文发送到传输层。
- 传输层在此报文的基础上封装上
TCP头信息,即客户端的端口,服务端的端口,并将封装过后的报文发送到网络层。 - 网络层在此基础上继续封装上
IP头信息,封装上客户端IP以及服务端IP,并将报文发送到网络接口层。 - 网络接口层,会再封装,添加上
MAC头信息,即客户端的MAC地址以及网关MAC,然后将封装好的报文转成二进制码,发到客户端
1.2.2.2 服务端接受请求
解释:
- 请求经过物理层的传输到达服务器后。首先需要经过网络接口层,他会将二进制的数据转成客户端封装后的报文。
- 然后,网络接口层会从报文中先解析出
MAC头信息,验证MAC是否正确。正确,则继续下一层,并将报文发送到网络层。 - 网络层接收到报文后,进行第二层的解析,将
IP头信息解析出来,并验证是否正确。正确,则将信息发送到传输层。 - 传输层再次解析出报文中的
TCP头信息,并验证服务端端口是正确,并且端口已经开放。都没问题,则将信息发送到应用层。 - 应用层则将最后的
HTTP协议报文转成HttpServletRequest对象发送给服务。
1.3、Linux中的网卡
1.3.1、查看网卡及其作用
在知道docker是如何通信的之前,先来看一下Linux的中的网卡是如何通信。毕竟原理是相通的,弄懂一个,其他的就都懂了。
[root@localhost ~]# ip a1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:22:7c:7a brd ff:ff:ff:ff:ff:ff
inet 10.19.6.104/16 brd 10.19.255.255 scope global noprefixroute ens33
valid_lft forever preferred_lft forever
inet6 fe80::420c:3702:e936:a686/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default
link/ether 02:42:9a:99:34:1b brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
[root@localhost ~]#
通过命令
ip a
查看系统中的所有网卡信息。
网卡名称干嘛用的lo回环网卡,也就是本地网卡,他主要是模拟网络接口层,解析报文发送给自己(解析网络地址)。
举个例子:计算机上有两个服务,服务1访问服务2,没有回环网卡,发送的数据报文就会走完传输层和网络层所有过程,再发给自己;但是有了回环网卡,就不用走这个路径,通过回环网卡解析报文,就可以发送自己。ens33网络网卡,他的作用是,与外面网络进行链接docker0docker的网卡。docker安装后,会生成一个docker的网卡
网卡配置信息解释如下:
UP: 网卡处于活动状态
BROADCAST: 支持广播
RUNNING: 网线已接入
MULTICAST: 支持组播
MTU: 最大传输单元(字节),即此接口一次所能传输的最大封包
inet: 显示IPv4地址行
inet6: 显示IPv6地址行
link/enther: 指设备硬件(MAC)地址
txqueuelen: 传输缓存区长度大小
RX packets: 接收的数据包
TX packets: 发送的数据包
errors: 总的收包的错误数量
dropped: 由于各种原因, 导致拷贝在内存过程中被丢弃
collisions: 网络信号冲突情况, 值不为0则可能存在网络故障
关于网卡的这信息的详细解释,请看👉网络基础管理
查看网卡的其他命令
[root@localhost ~]# ip link show1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
link/ether 00:0c:29:22:7c:7a brd ff:ff:ff:ff:ff:ff
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default
link/ether 02:42:9a:99:34:1b brd ff:ff:ff:ff:ff:ff
# 以文件的形式查看网卡[root@localhost ~]# ls /sys/class/net/
docker0 ens33 lo

1.3.2、网卡的配置文件
这个文件主要是给网卡配置固定IP
[root@localhost ~]# cd /etc/sysconfig/network-scripts/# 这个目录下面有好多文件,咱们就加条件筛选一下[root@localhost network-scripts]# ls | grep ifcfg
ifcfg-lo
ifcfg-ens33
----------------------------
# 自己 建的文件 dhcp的
ifcfg-ens33.dhcp.bak
# 自己建的文件 配置静态Ip
ifcfg-ens33.static.bak
根据你的网卡个数,就会有几个配置文件。
lo
对应
ifcfg-lo
、
ens33
对应
ifcfg-ens33
、
docker0
是虚拟网卡没有配置文件。
对于固定Ip的设定,这里不讲。
1.3.3、网卡操作
# 给网卡增加ipip addr add192.168.100.120/24 dev ens33
# 删除网卡的ipip addr delete 192.168.100.120/24 dev ens33


1.4、NameSpace
接下来看,第二个知识点
NameSpace
。
Network Namespace
是实现网络虚拟化的重要功能,它能创建多个隔离的网络空间,它们有独自的网络栈信息。不管是虚拟机还是容器,运行的时候仿佛自己就在独立的网络中。
这也就是docker的容器在运行中是如何和其他网络隔离的。
拓展知识 关于windows的网络操作👉:Windows网络命令汇总
1.4.1、NameSpace操作
1.4.1.1、namespace基本操作
#查看当前所有的namespaceip netns list
#增加一个 名为【ns1】的namespaceip netns add ns1
#删除【ns1】这个namespaceip netns delete ns1
#查看namespace【ns1】的网卡情况。exec跟docker的exec命令差不多,都可以理解为进入/登录的意思。#通过 exec登录名为【ns1】的namespace,执行【ip a】命令ip netns exec ns1 ip a
最后形成这样的图才对。

1.4.1.2、namespace内网卡的启动与关闭
#----------ip命令--------------# 打开(ns1的lo)网卡ip nets exec ns1 ifup lo
# 关闭(ns1的lo)网卡ip nets exec ns1 ifdown lo
#----------link命令--------------#通过link命令来启动网卡ip netns exec ns1 iplinkset lo up
#通过link命令来关闭网卡ip netns exec ns1 iplinkset lo down


1.4.2、不同namespace网卡的通讯
要想实现不同
namespace
下的网卡通讯,需要用到的技术就是:
veth pair:
Virtual Ethernet Pair
,是一个成对的端口,可以实现上述功能。示意图图下:
接下来命令实操
#首先创建两个namespace【ns1】【ns2】#创建成对的 veth pair网卡 veth1 以及 veth2iplinkadd veth1 type veth peer name veth2
# 将网卡 veth1 交给 ns1 iplinkset veth1 netns ns1
# 将网卡 veth2 交给 ns2iplinkset veth2 netns ns2

#分别查询两个namespace就会发现之前新增的两个网卡ip netns exec ns1 iplinkip netns exec ns2 iplink

#想要通讯,需要增加ip地址。给两个网卡增加新的ip地址。注意:网卡和namespace一定要对应好ip netns exec ns1 ip addr add192.168.0.11/24 dev eth1
ip netns exec ns2 ip addr add192.168.0.11/24 dev eth2

#分别启动两个网卡ip netns exec ns1 iplinkset veth1 up
ip netns exec ns2 iplinkset veth2 up
# 然后需要互相pingip netns exec ns1 ping192.168.0.12
ip netns exec ns2 ping192.168.0.11

1.4.3、【docker】Container的NameSpace
Docker使用了Linux的Namespaces技术来进行资源隔离,如PTD Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。
按照上面的描述,docker的每个container,都会有自己的
network namespace
,并且是独立的。接下验证咱们的猜想。
- 下载 tomcat-8.5.93
- 使用
docker pull centos:7命令,下载centos镜像(之所以使用centos,不直接使用tomcat镜像,是因为tomcat镜像里没有ip命令) - 创建tomcatDockerFile文件,并进行编写
FROM centosMAINTAINER bugaosuniADD apache-tomcat-8.5.93.tar.gz /usr/local/ENV MYPATH /usr/localWORKDIR $MYPATH#配置tomcat环境变量ENV CATALINA_HOME /usr/local/apache-tomcat-8.5.93ENV CATALINA_BASE /usr/local/apache-tomcat-8.5.93ENV PATH$PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib:$CATALINA_HOME/bin#容器运行时监听的端口EXPOSE 8080#启动时运行tomcatCMD ["/usr/local/apache-tomcat-8.5.93/bin/catalina.sh","run"] - 构建自定义tomcat镜像
docker build -f tomcatDockerFile -t tomcat_custom:1.0.0 . - 运行tomcat镜像
docker run -d--name tomcat01 -p8081:8080 tomcat_custom:1.0.0docker run -d--name tomcat02 -p8082:8080 tomcat_custom:1.0.0 - 进入容器查看ip
dockerexec-it tomcat01 ip adockerexec-it tomcat02 ip a

通过上面的图片,咱们就可以看到,每个容器都有自己一套网卡,容器和容器是相互隔离的。
仔细看就会发现他们的网卡eth0绑定的不是同一个MAC,网卡名字也是不相同的。
他们能够相互PING的通,原理是相同的,但是他们的网卡通信却不是veth-pair技术,而是Bridge技术。
1.5、docker的Container网络模式
执行命令
docker network ls
就会发现docker中存在三种网络模式。
[root@localhost tomcat]# docker network ls
NETWORK ID NAME DRIVER SCOPE
b6147ac32cc8 bridge bridge local
8673ae77bb8a hosthostlocal
5f2ed6e8566d none null local
也就是
bridge
、
host
、
none
。
注意:docker的网络模式其实是4种,还有一种
container
模式,类似于
host
模式。
1.5.1、VMware虚拟机的网络模式
了解docker的网络模式之前,先来了解一下虚拟机的网络模式,毕竟一法通百法明。
打开
VMware Workstation Pro
-->虚拟机–>设置–>网络适配器。就会弹出下图。
- 桥接模式:在这种模式下,VMWare虚拟出来的操作系统就像是局域网中的一台独立的主机,它可以访问网内任何一台机器。在桥接模式下,你需要手工为虚拟系统配置IP地址、子网掩码,而且还要和宿主机器处于同一网段,这样虚拟系统才能和宿主机器进行通信。同时,由于这个虚拟系统是局域网中的一个独立的主机系统,那么就可以手工配置它的TCP/IP配置信息,以实现通过局域网的网关或路由器访问互联网。即此虚拟机可以和局域网中的其他主机互相通信。
- 使用NAT模式,就是让虚拟系统借助NAT(网络地址转换)功能,通过宿主机器所在的网络来访问公网。也就是说,使用NAT模式可以实现在虚拟系统里访问互联网。NAT模式下的虚拟系统的TCP/IP配置信息是由
VMnet8(NAT)虚拟网络的DHCP服务器提供的,无法进行手工修改,因此虚拟系统也就无法和本局域网中的其他真实主机进行通讯。采用NAT模式最大的优势是虚拟系统接入互联网非常简单,你不需要进行任何其他的配置,只需要宿主机器能访问互联网即可。 - 仅主机模式:在此模式下所有的虚拟系统是可以相互通信的,但虚拟系统和真实的网络是被隔离开的。此模式下,虚拟系统和宿主机器系统是可以相互通信的,相当于这两台机器通过双绞线互连。此模式下,虚拟系统的TCP/IP配置信息(如
IP地址、网关地址、DNS服务器等),都是由VMnet1(host-only)虚拟网络的DHCP服务器来动态分配的。
1.5.2、Bridge模式
咱们容器的网卡不是veth-pair技术生成的成对的网卡,那他们是如何PING的呢?
他们用的是Bridge,也就是咱们平常经常说的桥接模式!
通过命令查询宿主机IP,就会发现宿主机又多了两个网卡。
对比容器内的网卡就会发现网卡的规律
其最后的网卡示意图,是如下所示的。
容器的网卡都在各自的容器内,和容器通讯的网卡则在宿主机上,
eth0@if11
和
vethb598148@if10
则构成了成对的网卡。而宿主机上的两个网卡
vethb598148@if10
和
veth7736952@if14
则都在
docker0网桥
中。
咱们使用
ip netns list
发现不了
docker0网桥
的,那如何验证宿主机上的两个网卡都在
docker0
中呢?
开始验证
#安装 网桥工具 bridge-utils
yum install bridge-utils
#执行命令
brctl show
#创建名为<网桥名>的网桥
brctl addbr <网桥名>#卸载网桥上的端口
brctl delif <网桥名><端口名>#查看是否有网桥网卡名 ifconfig#关闭此网卡 ifconfig<网桥名> down
#删除网桥
brctl delbr <网桥名>
这个时候,咱么就会发现这网桥
docker0
存在连个
interfaces
分别对应咱们宿主机上的两个网卡。那现在这张图,证明咱们上面画的那张图是正确的。
这种网络连接方式,咱们叫Bridge,也就是网桥技术。
容器默认的网络是桥接模式(自己搭建的网络默认使用桥接模式,启动容器默认也是使用桥接模式)。
此模式会为每一个容器分配、设置IP等,并将容器连接到一个
docker0虚拟网桥
,通过
docker0网桥
以及
Iptables nat
表配置与宿主机通信。

查看docker的网络模式
通过执行
docker network inspect bridge
就会发现,咱们的两个容器
tomcat01
、
tomcat02
都是桥接的。
[root@localhost tomcat]# docker network inspect bridge[{"Name":"bridge",
"Id":"b6147ac32cc846ab99901aa99d7ec2f820d36e5733acf4bbacee874f07e1205e",
"Created":"2023-10-08T09:09:09.869331457+08:00",
"Scope":"local",
"Driver":"bridge",
"EnableIPv6": false,
"IPAM":{"Driver":"default",
"Options": null,
"Config":[{"Subnet":"172.17.0.0/16",
"Gateway":"172.17.0.1"}]},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom":{"Network":""},
"ConfigOnly": false,
"Containers":{"3fe29022223db713b5f3c68bab32355dab8affba51bfaf9b2bb78225884afc13":{"Name":"tomcat02",
"EndpointID":"1f114af77950c6c93b93276cb6d27a78560da0bc4d46eac060ff8e43dd3092e1",
"MacAddress":"02:42:ac:11:00:03",
"IPv4Address":"172.17.0.3/16",
"IPv6Address":""},
"8469dc9851ec7ce9922c9e3e26ffd81ef9ab08c89553307cb1da76b1198cb8e2":{"Name":"tomcat01",
"EndpointID":"9c5d485714eb293a31e64f744a36be714fc78117aec4ceebc7d64e4547348fc3",
"MacAddress":"02:42:ac:11:00:02",
"IPv4Address":"172.17.0.2/16",
"IPv6Address":""}},
"Options":{"com.docker.network.bridge.default_bridge":"true",
"com.docker.network.bridge.enable_icc":"true",
"com.docker.network.bridge.enable_ip_masquerade":"true",
"com.docker.network.bridge.host_binding_ipv4":"0.0.0.0",
"com.docker.network.bridge.name":"docker0",
"com.docker.network.driver.mtu":"1500"},
"Labels":{}}]
1.5.3、host模式
Host:在此模式下,容器将共享主机的网络堆栈,并且主机的所有接口都可供容器使用。容器的主机名将与主机系统上的主机名匹配。
这就意味着,host模式下的容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口范围,和宿主机共用一个
Network Namespace
。
使用host模式的容器可以直接使用宿主机的Ip地址与外界通信,容器内部的服务端口也可以使用宿主机的端口,不需要进行NAT,host最大的优势就是网络性能比较好,但是已经使用的端口就不能再用了,即同一个端口只能同时被一个容器服务绑定,网络的隔离性不好。
如何指定容器为host模式?
docker run -d--name tomcat-host --networkhost tomcat_custom:1.0.0
当前容器
tomcat-host
的网卡跟宿主机的完全一样。
#查看docker下host模式的信息docker network inspect host
host模式下
Container
内就会存在
tomcat-host
。而且还会看到
IPv4Address
,
MACAddress
都是空,docker并没有为容器虚拟这些信息。
1.5.4、Container模式
这个模式和
host模式
很像。host模式是和宿主机共用一个
Network Namespace
,但是
container模式
是和已经存在的容器共用一个
Network Namespace
。
此模式下:新创建的容器不会创建自己的网卡,不会配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样两个容器除了网络方面相同之外,其他的如文件系统、进程列表等还是隔离的。
注意:
- 当前模式下的容器依赖于其他的容器,如果第一个以bridge方式启动的容器服务挂掉,后面依赖它的容器,都暂停服务。
- 使用此模式,容器一多,依赖关系就会变多,关系之类的就会很乱。企业开发一般不使用此模式,因为太坑。
如何指定容器为Container模式?
docker run -d--name tomcat-container --net=container:容器ID或容器名称 tomcat_custom:1.0.0
可以看到
Container模式
下的容器
tomcat-container
和
bridge模式
下
tomcat01
的网卡信息完全一样。
1.5.5、None模式
None模式不会为容器配置任何IP,也不能访问外部网络以及其他容器,它具有环回地址,可用于运行批处理作业。
如何指定容器为None模式?
docker run -d--name tomcat-none --net=none tomcat_custom:1.0.0
通过下面两图就会发现,当前模式下只有一个
lo
网卡。

1.5.6、自定义Network
#-----------网络---------------#创建网络docker network create 网络名称 -d 模式 --subnet=网段/位数 --gateway=网关
#示例docker network create tomcat-net -d bridge --subnet=172.16.0.0/16 --gateway=172.16.0.1
#删除网络docker network rm tomcat-net
#查看网络信息docker network inspect tomcat-net
#-----------容器与网络---------------#创建容器,并指定网络docker run -d--name custom-net-tomcat --network tomcat-net tomcat_cusotm:1.0.0
#自定义的网络,其他容器是无法访问的。tomcat01容器链接tomcat-net网络docker network connect tomcat-net tomcat01
#容器与网络断开docker network disconnect tomcat-net tomcat01
创建新的容器,并指定网络。发现ip跟之前的完全不一样。然后,在新建网络的容器中PING旧容器的IP,发现PING不通。
注意:
容器custom-tomcat-net链接的网络tomcat-net,在网络tomcat-net中ip为172.16.0.2容器tomcat01、容器tomcat02链接的网络bridge,ip分别为172.17.0.2、172.17.0.3
然后给 tomcat01增加新的网络
tomcat-net
最后发现,要想PING通tomcat01,不能
ping 172.26.17.0.2
,要
ping 172.16.0.3
才行。否则就要给自定义tomcat,增加新的连接网络
bridge
。
1.6、端口映射
1.6.1、原理
Docker容器一般默认使用的是桥接,即在宿主机虚拟出一个
Docker容器的网桥docker0
。
容器启动时,网桥会根据网段分配给容器一个IP地址,同时
docker0
也就成了每个容器的默认网关。多个容器都接入同一个网桥,这样容器的IP就形成同网段的IP,容器之间就能够通过容器的Container-IP直接通信。
网桥
docker0
是宿主机虚拟出来的,并不是真实存在网络设备,外部网络是无法寻址到的,这也意味着外部网络无法直接通过Container-IP访问到容器。
如果容器希望外部访问能访问到,可以通过映射容器端口到宿主主机(端口映射),即 docker run创建容器时通过
-p或-P参数
来启用,访问容器的时候就通过
[宿主机IP]:[容器端口]
访问容器 。
1.6.2、容器端口映射
容器的端口映射有四种方式:
随机端口映射
、
指定端口映射
、
指定网卡随机端口映射
、
指定网卡端口映射
- 随机端口映射 随机端口映射,就是容器的端口随机映射为宿主机的一个端口。 启动命令里,使用参数
-P``````docker run -itd-P--name tomcatPort1 tomcat_custom:1.0.0

- 指定端口映射 指定端口映射,就是把容器的端口映射为宿主机的指定端口。 启动命令里,使用参数
-p 宿主机端口:容器端口``````docker run -itd-p8080:8080 --name tomcatPort2 tomcat_custom:1.0.0
- 指定网卡随机端口映射 指定网卡随机端口映射:就是把容器的端口映射为宿主机的指定网卡的随机端口。 启动命令里,使用参数
-p 宿主机IP::容器端口``````docker run -itd-p192.168.57.130::8080 --name tomcatPort3 tomcat_custom:1.0.0

- **指定网卡端口映射 ** 指定网卡端口映射:就是把容器的端口映射为宿主机的指定网卡的指定端口。 启动命令里,使用参数
-p 宿主机IP:宿主机端口:容器端口``````docker run -itd-p192.168.57.130:32770:8080 --name tomcatPort4 tomcat_custom:1.0.0
1.7、多机通信
上面说的都是所有通信都是在一个宿主机内,但如果是多机通信呢?
举个例子:咱们应用服务器上有一个服务的容器,但是服务链接的数据库在另一个服务器的容器上,他们是如何通信的呢?
这通信的技术就是:
VXLAN(Virtual Extensible LAN,虚拟可扩展局域网)
。
其原理就是:在现有IP网络上创建一个逻辑的二层网络,实现不同物理网络之间的互通。
VXLAN是一种虚拟化技术,旨在解决传统局域网(LAN)无法覆盖大规模、分布式环境的问题。
在VXLAN中原始二层报文的基础上在进行了封装。中间的报文则决定了之后报文发送的方向。

具体的专业术语不予讲解
相关博客:VXLAN 基础教程:VXLAN 协议原理介绍、Linux隧道网络VxLAN、VXLAN:虚拟可扩展局域网的探究、VXLAN 技术解析-(1)VXLAN简述
2、DockerCompose
2.1、简介
Compose 是用于定义和运行多容器 Docker 应用程序的工具。
通过 Compose,您可以使用 YML 文件来配置应用程序需要的所有服务。然后,使用一个命令,就可以从 YML 文件配置中创建并启动所有服务。即一键启动所有的服务。
DockerCompose的使用步骤
- 创建对应的DockerFile文件
- 创建yml文件,在yml文件中编排我们的服务
- 通过
docker-compose up命令 一键运行我们的容器
2.2、compose的安装
DockerCompose官网地址:
https://docs.docker.com/compose


#使用github下载composesudocurl-L"https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname-s)-$(uname-m)"-o /usr/local/bin/docker-compose
#速度比较慢的话使用下面的地址:curl-L https://get.daocloud.io/docker/compose/releases/download/1.25.0/docker-compose-`uname-s`-`uname-m`> /usr/local/bin/docker-compose
#这个地方踩了一个不大不小的坑。。。#大家下载的时候看一下啊。 `uname -s` 结果是`linux`才能下载,我这下载了两次都没下载下来。最后找了半天的错误,才发现的。。。人家的名字叫`docker-compose-linux-x86_64`,我下载的是`docker-compose-Linux-x86_64`,路径不对哈,下载不下来的。#个人推荐直接进github下的docker-compose-releases页面(https://github.com/docker/compose/releases)找一下最新版本哈。#当然,如果自己有yum的话,可以执行yum安装命令。
yum install docker-compose-plugin.x86_64
#额。。。公司的网,github打不开,下不下来,我这直接yum下载的。。#使用`yum` 安装完了,使用find命令找一下安装文件。[root@localhost cli-plugins]# find / -name docker-compose
/usr/libexec/docker/cli-plugins/docker-compose
修改文件夹权限
#下载的chmod +x /usr/local/bin/docker-compose
#yum安装的chmod +x /usr/libexec/docker/cli-plugins/docker-compose
建立软连接
#想要使docker-compose命令生效,需要将这个命令,放到/usr/local/bin/下。可以建立链接,也可以直接拷贝文件。#不过我不建议拷贝文件,因为文件内部可能存在相对路径导致命令执行的失败。建议建立链接。链接大家可以理解为windows里的快捷方式。#下载的ln-s /usr/local/bin/docker-compose /usr/bin/docker-compose
#yum安装的。链接文件应该是放到/usr/bin/才对,但是不知道为啥,我这直接执行docker-compose命令的时候,linux往/usr/local/bin/下找docker-compose这个文件。emmm。。。所以我只能将链接建到/usr/local/bin/下了。ln-s /usr/libexec/docker/cli-plugins/docker-compose /usr/local/bin/docker-compose
校验是否安装成功
docker-compose--version

2.3、compose初体验
注意:使用前compose前,请先确定一下当前docker的版本,是否支持你的compose文件的版本
官网:
- compose file支持的docker版本
关于如何使用
docker-compose
官网给与了使用案例
英文的不好读,咱们按照案例执行一下:
#第一步: 在opt下创建composetest目录,并进入当前目录cd /opt;mkdir composetest;cd composetest;#第二步:创建 app.py 文件,并写入以下内容。咱们直接使用tee命令来做这件事sudotee app.py <<-'EOF'
import time
import redis
from flask import Flask
app = Flask(__name__)
cache = redis.Redis(host='redis', port=6379)
def get_hit_count():
retries = 5
while True:
try:
return cache.incr('hits')
except redis.exceptions.ConnectionError as exc:
if retries == 0:
raise exc
retries -= 1
time.sleep(0.5)
@app.route('/')
def hello():
count = get_hit_count()
return 'Hello World! I have been seen {} times.\n'.format(count)
EOF#第三步:创建 requirements.txt 文件,并写入以下内容。咱们直接使用tee命令来做这件事sudotee requirements.txt <<-EOF
flask
redis
EOF#第四步:创建 Dockerfile 文件,并写入以下内容。咱们直接使用tee命令来做这件事tee Dockerfile <<-EOF
# syntax=docker/dockerfile:1
FROM python:3.7-alpine
WORKDIR /code
ENV FLASK_APP=app.py
ENV FLASK_RUN_HOST=0.0.0.0
RUN apk add --no-cache gcc musl-dev linux-headers
COPY requirements.txt requirements.txt
RUN pip install -r requirements.txt
EXPOSE 5000
COPY . .
CMD ["flask", "run"]
EOF#第五步:创建compose.yaml文件,并写入以下内容。咱们直接使用tee命令来做这件事tee compose.yaml <<-EOF
services:
web:
build: .
ports:
- "8000:5000"
redis:
image: "redis:alpine"
EOF#第六步:启动 composedocker compose up
注意:启动compose这个比较慢哈。。。我这整整起了3小时+。。。早上11点开始的,中午睡了一觉,1点半起来发现还没加载完。
省略中间不知道多少日志。。。
测试:composetest-web
终止Compose
发现关闭了两个容器,和
compose.yaml
里配置的完全对的上。至于
buildx_buildkit_default
那个是pthoy的一个类库。
2.4、compose.yml规则
配置文件的规则:
- 官网地址:Service configuration
- 另外推荐一篇博客:docker-compose yml文件详解
这个实在是太多了。放到新的一篇文章中了:docker-compose yml文件详解
2.5、compose部署实战
2.5.1、一键部署WP博客
以WP博客为例
#1、创建该目录,并进入该目录mkdir my_wordpress;cd my_wordpress
#2、使用tee命令,创建docker-compose.yml文件,并写入内容tee docker-compose.yml <<-EOF
version: "3.9"
services:
db:
image: mysql:5.7
volumes:
- db_data:/var/lib/mysql
restart: always
environment:
MYSQL_ROOT_PASSWORD: somewordpress
MYSQL_DATABASE: wordpress
MYSQL_USER: wordpress
MYSQL_PASSWORD: wordpress
wordpress:
depends_on:
- db
image: wordpress:latest
volumes:
- wordpress_data:/var/www/html
ports:
- "8000:80"
restart: always
environment:
WORDPRESS_DB_HOST: db:3306
WORDPRESS_DB_USER: wordpress
WORDPRESS_DB_PASSWORD: wordpress
WORDPRESS_DB_NAME: wordpress
volumes:
db_data: {}
wordpress_data: {}
EOF#3、启动docker-composedocker-compose up -d
报错:
错误信息1:
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
出现该错误,是因为docker没启动哈。
使用命令启动docker
systemctl start docker
错误信息2:
no configuration file provided: not found
出现该错误,是因为当前所在目录不对,要切换到docker-compose.yml文件所在目录,再执行启动命令

测试,项目是否可以:
2.5.2、部署一个springCloud项目
临时写一个项目太麻烦了,自己现在做的项目有很多不能往外写。所以咱们以开源项目
RuoYi-Cloud-v3.5.0
为例。
下载代码:
- 码云地址1:RuoYi-Cloud-v3.4
- 码云地址2:RuoYi-Cloud
我这项目是github上下载的。码云上tag没有3.5.0的版本,大家注意哈!

写自己的
compose.yml
。。。好吧!突然发现人家给提供了。。
version:'3.8'services:ruoyi-nacos:container_name: ruoyi-nacos
image: nacos/nacos-server
build:context: ./nacos
environment:- MODE=standalone
volumes:- ./nacos/logs/:/home/nacos/logs
- ./nacos/conf/application.properties:/home/nacos/conf/application.properties
ports:-"8848:8848"-"9848:9848"-"9849:9849"depends_on:- ruoyi-mysql
ruoyi-mysql:container_name: ruoyi-mysql
image: mysql:5.7build:context: ./mysql
ports:-"3306:3306"volumes:- ./mysql/conf:/etc/mysql/conf.d
- ./mysql/logs:/logs
- ./mysql/data:/var/lib/mysql
command:['mysqld','--innodb-buffer-pool-size=80M','--character-set-server=utf8mb4','--collation-server=utf8mb4_unicode_ci','--default-time-zone=+8:00','--lower-case-table-names=1']environment:MYSQL_DATABASE:'ry-cloud'MYSQL_ROOT_PASSWORD: password
ruoyi-redis:container_name: ruoyi-redis
image: redis
build:context: ./redis
ports:-"6379:6379"volumes:- ./redis/conf/redis.conf:/home/ruoyi/redis/redis.conf
- ./redis/data:/data
command: redis-server /home/ruoyi/redis/redis.conf
ruoyi-nginx:container_name: ruoyi-nginx
image: nginx
build:context: ./nginx
ports:-"80:80"volumes:- ./nginx/html/dist:/home/ruoyi/projects/ruoyi-ui
- ./nginx/conf/nginx.conf:/etc/nginx/nginx.conf
- ./nginx/logs:/var/log/nginx
- ./nginx/conf.d:/etc/nginx/conf.d
depends_on:- ruoyi-gateway
links:- ruoyi-gateway
ruoyi-gateway:container_name: ruoyi-gateway
build:context: ./ruoyi/gateway
dockerfile: dockerfile
ports:-"8080:8080"depends_on:- ruoyi-redis
links:- ruoyi-redis
ruoyi-auth:container_name: ruoyi-auth
build:context: ./ruoyi/auth
dockerfile: dockerfile
ports:-"9200:9200"depends_on:- ruoyi-redis
links:- ruoyi-redis
ruoyi-modules-system:container_name: ruoyi-modules-system
build:context: ./ruoyi/modules/system
dockerfile: dockerfile
ports:-"9201:9201"depends_on:- ruoyi-redis
- ruoyi-mysql
links:- ruoyi-redis
- ruoyi-mysql
ruoyi-modules-gen:container_name: ruoyi-modules-gen
build:context: ./ruoyi/modules/gen
dockerfile: dockerfile
ports:-"9202:9202"depends_on:- ruoyi-mysql
links:- ruoyi-mysql
ruoyi-modules-job:container_name: ruoyi-modules-job
build:context: ./ruoyi/modules/job
dockerfile: dockerfile
ports:-"9203:9203"depends_on:- ruoyi-mysql
links:- ruoyi-mysql
ruoyi-modules-file:container_name: ruoyi-modules-file
build:context: ./ruoyi/modules/file
dockerfile: dockerfile
ports:-"9300:9300"volumes:- ./ruoyi/uploadPath:/home/ruoyi/uploadPath
ruoyi-visual-monitor:container_name: ruoyi-visual-monitor
build:context: ./ruoyi/visual/monitor
dockerfile: dockerfile
ports:-"9100:9100"
然后在服务器
compose.yml
文件的位置,执行
docker-compse up -d
即可。
2.5.3、部署一个springboot项目
上面那个项目,人家都弄好了,不算实操。
咱们新建一个springboot项目,引入redis,一个
DemoController
,一个无参的Post请求,返回一个简单的字符串,其他的什么都不加。
#dockerFile
FROM java:8
COPY my-0.0.1-SNAPSHOT.jar demo.jar
EXPOSE 8080
CMD ["java","-jar","demo.jar"]
#docker-compose.yml。将两个放到同一文件夹下,进行执行。
version: '3.8'
services:
myapp:
build: .
image: demo
depends_on:
- redis
ports:
- "8080:8080"
redis:
image: "library/redis:alpine"
2.6、docker-compse的命令
2.6.1、查看版本号
#查看版本号:docker-compose version
2.6.2、执行compose文件
#执行compose文件docker-compose up
#指定yml文件启动docker-compose up -f fileName.xml
#后台启动docker-compose up -d
2.6.3、查看所有服务/容器
# 列出工程中所有服务的容器docker-composeps# 列出工程中指定服务的容器docker-composeps tomcat
2.6.4、拉取服务依赖的镜像
#镜像拉取,拉取服务的依赖镜像。跟docker pull,不一样,docker pull是直接拉取镜像#拉取工程中所有服务依赖的镜像docker-compose pull
#拉取工程中 nginx 服务依赖的镜像docker-compose pull tomcat
#拉取镜像过程中不打印拉取进度信息docker-compose pull -q
2.6.5、查看docker-compose的images
#查看所有服务的容器所对应的镜像docker-compose images
#查看指定服务的容器所对应的镜像docker-compose images tomcat
2.6.6、启动/暂停/停止/重启/杀死服务
语法:docker-compose [start|pause|stop|restart|kill][SERVICE...]# 启动/暂停/停止/重启工程中所有服务的容器docker-compose start|pause|stop|restart|kill# 启动/暂停/停止/重启工程中指定服务的容器docker-compose start|pause|stop|restart|kill tomcat
2.6.7、删除服务
# 删除所有(停止状态)服务的容器docker-composerm# 先停止所有服务的容器,再删除所有服务的容器docker-composerm-s# 不询问是否删除,直接删除docker-composerm-f# 删除服务容器挂载的数据卷docker-composerm-v# 删除工程中指定服务的容器docker-composerm-sv nginx
2.6.8、删除服务及其所有相关内容
#停止并删除工程中所有服务的容器、网络、镜像、数据卷docker-compose down
# 停止并删除工程中所有服务的容器、网络、镜像docker-compose down --rmi all
# 停止并删除工程中所有服务的容器、网络、数据卷docker-compose down -v
2.8.9、指定端口映射
#指定服务容器的某个端口所映射的宿主机端口。 注意:端口映射还有其他语法docker-compose port tomcat 80
2.8.10、显示正在运行的进程
# 显示工程中所有服务的容器正在运行的进程docker-composetop# 显示工程中指定服务的容器正在运行的进程docker-composetop tomcat
2.8.11、进入服务
# 进入工程中指定服务的容器docker-composeexec nginx bash# 当一个服务拥有多个容器时,可通过 --index 参数进入到该服务下的任何容器docker-composeexec--index=1 tomcat bash
2.8.12、日志
# 输出日志,不同的服务输出使用不同的颜色来区分docker-compose logs
# 跟踪日志输出docker-compose logs -f# 关闭颜色docker-compose logs --no-color
2.8.13、在服务上运行命令
# 在工程中指定服务的容器上执行 echo "helloworld"docker-compose run tomcat echo"helloworld"
2.7 集群扩容scale
一般当咱们使用
docker-compose
的时候,很多时候,是会出现集群方面的管理。
一旦出现集群,就会涉及到服务的扩容,缩容等方面的问题。例如:redis,每次扩容缩容是需要修改配置文件,然后再重启服务,特麻烦。
于是,
docker-compose
就提供了这方面的功能。
#将redis服务进行扩容到5个,且后台运行。docker-compose up --scaleredis=5-d
3、常用的镜像私服仓库
3.1、Docker hub

在服务器上直接输入
docker login
,输入用户名密码,即可登录。
推送之前【2.5.3】我们构建的
demo.jar
的镜像到
docker hub
上
#docker push 你的登录用户名/镜像名称。注意镜像名称的命名,否则push不成功docker push username/demo
下载
docker pull username/demo
如果,你想查看你推送的。可以登录官网地址:hub.docker.com,输入
username/demo
,就能查看到了。
3.2、阿里云Docker Registry
3.2.1、创建阿里云私服
访问地址:https://cr.console.aliyun.com/cn-hangzhou/instances
创建私人仓库:
点击创建个人实例
—>
同意授权
–>
填写仓库信息
–>
立即购买
(好像不支付也可以,忘了咋操作的了)
命名空间
–>
创建命名空间

镜像仓库
–>
创建镜像仓库
–>
下一步

填写代码源
–>
选择本地仓库
–>
创建镜像仓库

创建成功,尝试登录。
3.2.2、Login、push、pull
开始推送
demo
到阿里云服务器

下载私有镜像
3.3、私服Harbor
3.3.1、简介
Harbor
是由
VMware
公司开源的企业级的
Docker Registry
管理项目,
Harbor
主要提供
Dcoker Registry
管理UI,提供的功能包括:
基于角色访问的控制权限管理(RBAC)
、
AD/LDAP集成
、
日志审核
、
管理界面
、
自我注册
、
镜像复制和中文支持
等。Harbor的目标是帮助用户迅速搭建一个企业级的Docker registry服务。它以Docker公司开源的registry为基础,额外提供了如下功能:
- 基于角色的访问控制(Role Based Access Control)
- 基于策略的镜像复制(Policy based image replication)
- 镜像的漏洞扫描(Vulnerability Scanning)
- AD/LDAP集成(LDAP/AD support)
- 镜像的删除和空间清理(Image deletion & garbage collection)
- 友好的管理UI(Graphical user portal)
- 审计日志(Audit logging)
- RESTful API
- 部署简单(Easy deployment)
Harbor的所有组件都在Dcoker中部署,所以Harbor可使用Docker Compose快速部署。需要特别注意:由于Harbor是基于Docker Registry V2版本,所以docker必须大于等于1.10.0版本,docker-compose必须要大于1.6.0版本!

组件功能harbor-adminserver配置管理中心harbor-dbMysql数据库harbor-jobservice负责镜像复制harbor-log记录操作日志harbor-uiWeb管理页面和APInginx前端代理,负责前端页面和镜像上传/下载转发redis会话registry镜像存储
3.3.2、Harbor安装
3.3.2.1、下载
- 官网安装教程
- 历史版本
- 最新下载
这玩意600MB+。。。。下载的老鸡儿慢了。。。
我这下载了好几天,重试了无数次,终于从一个百度云上下载下来了
3.3.2.2、安装
- 解压
#第一步,解压[root@manager harbor]# tar -zxcf harbor-offline-installer-v2.4.3.tgz[root@manager harbor]# ll
total 642184
drwxr-xr-x. 2 root root 1222023-12-26 10:37:58 harbor
-rw-r--r--. 1 root root 6575937232023-12-26 10:32:18 harbor-offline-installer-v2.4.3.tgz
- 尝试安装harbor
#第二步, 进入安装目录,开始安装harbor[root@manager harbor]# sh install.sh[Step 0]: checking ifdocker is installed ...
# 注意 docker版本太低。。。。。
Note: docker version: 1.13.1
✖ Need to upgrade docker package to 17.06.0+.
- 卸载旧版本docker,安装新版本docker
#第三步,卸载旧版本的docker[root@manager harbor]# rpm -qa | grep docker
docker-buildx-plugin-0.10.4-1.el7.x86_64
docker-compose-plugin-2.21.0-1.el7.x86_64
docker-common-1.13.1-209.git7d71120.el7.centos.x86_64
docker-1.13.1-209.git7d71120.el7.centos.x86_64
docker-scan-plugin-0.23.0-3.el7.x86_64
docker-client-1.13.1-209.git7d71120.el7.centos.x86_64
[root@manager harbor]# yum remove -y docker-buildx-plugin-0.10.4-1.el7.x86_64 docker-compose-plugin-2.21.0-1.el7.x86_64 docker-common-1.13.1-209.git7d71120.el7.centos.x86_64 docker-1.13.1-209.git7d71120.el7.centos.x86_64 docker-scan-plugin-0.23.0-3.el7.x86_64 docker-client-1.13.1-209.git7d71120.el7.centos.x86_64#第四步,安装新版本docker[root@manager harbor]# curl -fsSL https://get.docker.com/ | sh#省略日志.....具体看图片

#出现以上错误#Delta RPMs disabled because /usr/bin/applydeltarpm not installed#安装一下 deltrapm,重新安装docker就可以了
yum -yinstall deltarpm-3.6-3.el7.x86_64
安装完成如下所示:


- 第二次重新安装harbor
这玩意。。。安装老慢了。。。等吧
出现这个错误:是因为没有提前准备配置文件。。。。。
- 准备配置文件
harbor提供了配置文件,在你当前解压目录下,有一个
harbor.yml.tmpl
,将其重命名为
harbor.yml
,修改一下几项内容即可使用。
# 修改位置1:域名或则是 IPhostname: 192.168.57.131
http:port:80#修改位置2:注释掉https相关内容#harbor默认没有https访问,如需要https,需要先生成证书。证书生成步骤 【3.3.2.3、 证书】#https:# port: 443# certificate: /opt/harbor/serverCert/192.168.56.131.crt # private_key: /opt/harbor/serverCert/192.168.56.131.keyexternal_url: https://192.168.57.15
harbor_admin_password: Harbor12345
database:password: root123
max_idle_conns:50max_open_conns:100#修改位置3:数据卷位置data_volume: /opt/harbor/data
clair:updaters_interval:12jobservice:max_job_workers:10notification:webhook_job_max_retry:10chart:absolute_url: disabled
#修改位置4:log文件位置log:level: info
local:rotate_count:50rotate_size: 200M
location: /opt/harbor/logs
_version: 1.10.0
proxy:http_proxy:https_proxy:no_proxy:components:- core
- jobservice
- clair
#修改文件,文件修改地方如上所示。[root@manager harbor]# vim harbor.yml#执行文件,准备环境[root@manager harbor]# ./prepare
prepare base dir is set to /opt/harbor/harbor
Clearing the configuration file: /config/portal/nginx.conf
Clearing the configuration file: /config/log/logrotate.conf
Clearing the configuration file: /config/log/rsyslog_docker.conf
Clearing the configuration file: /config/nginx/nginx.conf
Clearing the configuration file: /config/core/env
Clearing the configuration file: /config/core/app.conf
Clearing the configuration file: /config/registry/passwd
Clearing the configuration file: /config/registry/config.yml
Clearing the configuration file: /config/registry/root.crt
Clearing the configuration file: /config/registryctl/env
Clearing the configuration file: /config/registryctl/config.yml
Clearing the configuration file: /config/db/env
Clearing the configuration file: /config/jobservice/env
Clearing the configuration file: /config/jobservice/config.yml
Generated configuration file: /config/portal/nginx.conf
Generated configuration file: /config/log/logrotate.conf
Generated configuration file: /config/log/rsyslog_docker.conf
Generated configuration file: /config/nginx/nginx.conf
Generated configuration file: /config/core/env
Generated configuration file: /config/core/app.conf
Generated configuration file: /config/registry/config.yml
Generated configuration file: /config/registryctl/env
Generated configuration file: /config/registryctl/config.yml
Generated configuration file: /config/db/env
Generated configuration file: /config/jobservice/env
Generated configuration file: /config/jobservice/config.yml
loaded secret from file: /data/secret/keys/secretkey
Generated configuration file: /compose_location/docker-compose.yml
Clean up the input dir[root@manager harbor]#
- 第三次安装harbor(成功)
harbor依赖docker,所以咱们能够在docker里看到harbor的所有容器
3.3.2.3、证书
本章节关于https证书的申请。
默认情况下,Harbor不附带证书。可以在没有安全性的情况下部署Harbor,以便您可以通过HTTP连接到它。但是,只有在没有外部网络连接的空白测试或开发环境中,才可以使用HTTP。在没有空隙的环境中使用HTTP会使您遭受中间人攻击。在生产环境中,请始终使用HTTPS。如果启用
Content Trust with Notary
来正确签名所有图像,则必须使用HTTPS。
要配置HTTPS,必须创建SSL证书。您可以使用由受信任的第三方
CA签名的证书
,也可以使用
自签名证书
。
证书签证:证书的签发与生成
证书合并:证书合并成证书包
- CA证书的签发与生成
咱们将证书生成到上层目录,即和data、logs同级的路径下,即 /opt/harbor/cert下
- 生成CA证书私钥。
openssl genrsa -out ca.key 4096

- 生成CA证书
调整
-subj
选项中的值以反映您的组织。如果使用FQDN连接Harbor主机,则必须将其指定为通用名称(
CN
)属性。
# -days 表示证书有效天数,3650代表10年
openssl req -x509-new-nodes-sha512-days3650\-subj"/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=yourdomain.com"\-key ca.key \-out ca.crt
如果是 ip访问,记得 将
yourdomain.com
替换为你的ip。
- 服务器证书的签发与生成
证书一般包含两个文件,一个yourdomain.com.crt 一个yourdomain.com.key 两个文件
咱们将服务器生成的证书,放到 /opt/harbor/serverCert 下。
这个地方我踩了一个坑,建议大家直接放到CA证书文件夹下,不要重新建一个文件夹,因为生成服务器证书文件,需要上面的CA证书的两个文件(cat.key、ca.crt)
- 生成私钥文件
#注意将 yourdomain.com更换为你自己的域名,或者是 ip
openssl genrsa -out yourdomain.com.key 4096

- 生成证书签名请求(CSR)
#调整-subj选项中的值以映射你的域名。如果使用FQDN连接Harbor主机,则必须将其指定为通用名称(CN)属性,并在密钥和CSR文件名中使用它。#注意修改yourdomain.com成你的域名,如果是ip访问,请改成你自己的IP
openssl req -sha512-new\-subj"/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=yourdomain.com"\-key yourdomain.com.key \-out yourdomain.com.csr

- 生成x509 v3扩展文件
无论您使用FQDN还是IP地址连接到Harbor主机,都必须创建此文件,以便可以为您的Harbor主机生成符合主题备用名称(SAN)和x509 v3的证书扩展要求。替换
DNS
条目以反映您的域
#使用改名的时候。需要将 DNS 的3项改成你自己的域名,如果是ip访问,需修改subjectAltName项cat> v3.ext <<-EOF
authorityKeyIdentifier=keyid,issuer
basicConstraints=CA:FALSE
keyUsage = digitalSignature, nonRepudiation, keyEncipherment, dataEncipherment
extendedKeyUsage = serverAuth
subjectAltName = @alt_names
[alt_names]
DNS.1=yourdomain.com
DNS.2=yourdomain
DNS.3=hostname
EOF

- 使用x509 v3扩展文件生成Harbor主机的证书。
#将CRS和CRT文件名中的“yourdomain.com”替换为“Harbor”主机名。
openssl x509 -req-sha512-days3650\-extfile v3.ext \-CA ca.crt -CAkey ca.key -CAcreateserial\-in yourdomain.com.csr \-out yourdomain.com.crt
如果出现下面这个错误:
[root@manager serverCert]# openssl x509 -req -sha512 -days 3650 \>-extfile v3.ext \>-CA ca.crt -CAkey ca.key -CAcreateserial\>-in192.168.57.131.csr \>-out192.168.57.131.crt
Signature ok
subject=/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=192.168.57.131
Error opening CA Certificate ca.crt
140014055364496:error:02001002:system library:fopen:No such file or directory:bss_file.c:402:fopen('ca.crt','r')140014055364496:error:20074002:BIO routines:FILE_CTRL:system lib:bss_file.c:404:
unable to load certificate
#或者是这个错误[root@manager serverCert]# openssl x509 -req -sha512 -days 3650 \>-extfile v3.ext \>-CA ca.crt -CAkey ca.key -CAcreateserial\>-in192.168.57.131.csr \>-out192.168.57.131.crt
Signature ok
subject=/C=CN/ST=Beijing/L=Beijing/O=example/OU=Personal/CN=192.168.57.131
Getting CA Private Key
CA certificate and CA private key do not match
139797921482640:error:06067099:digital envelope routines:EVP_PKEY_copy_parameters:different parameters:p_lib.c:137:
139797921482640:error:02001002:system library:fopen:No such file or directory:bss_file.c:402:fopen('ca.srl','r')139797921482640:error:20074002:BIO routines:FILE_CTRL:system lib:bss_file.c:404:
139797921482640:error:0B080074:x509 certificate routines:X509_check_private_key:key values mismatch:x509_cmp.c:343:

以上两种错误,都是说文件(
ca.crt
、
ca.srl
)找不到,出现这个错误,是因为当前文件夹下没有
CA证书文件
。
大家指定一下
CA的文件
路径,或者是,将现在所有的文件都拷贝到CA证书所在的文件夹下就可以了。
- 提供证书给Harbor和Docker
生成后
ca.crt
,
192.168.57.131.crt
和
192.168.57.131.key
文件,必须将它们提供给
Harbor
和
docker
,重新配置它们。
- 将文件文件拷贝到harbor证书文件夹下
#将证书文件拷贝到 harbor主机的 证书文件夹下。 默认是: /data/certmkdir-p /data/cert/
cp192.168.57.131.crt /data/cert/
cp192.168.57.131.key /data/cert/
#这个目录 是 在上一步中 harbor.yml中 http.certificate 和 https.private_key 中配置的。#如果不改 harbor.yml, 那就需要移动文件到配置的目录下
- 生成docker的证书
openssl x509 -inform PEM -in192.168.57.131.crt -out192.168.57.131.cert

#将这个几个文件 拷贝到 docker下,注意文件夹路径,必须是这个目录下mkdir-p /etc/docker/certs.d/192.168.57.131/
cp192.168.57.131.cert 192.168.57.131.key ca.crt /etc/docker/certs.d/192.168.57.131/
如果将默认
nginx
端口443 映射到其他端口,请创建文件夹
/etc/docker/certs.d/yourdomain.com:port
或
/etc/docker/certs.d/harbor_IP:port
最后生成的目录如下:
/etc/docker/certs.d/
└── 192.168.57.131
├── ca.crt
├── 192.168.57.131.cert
└── 192.168.57.131.key
重启docker
systemctl restart docker
注意:重启docker后,harbor的容器,好多是不会自动启动的,需要咱们自己手动启动harbor的容器
#停止并删除服务docker-compose down -v#推荐使用docker-compose。在安装目录下有docker-compose.yml,可是使用docker-composedocker-compose up -d

3.3.2.4、验证服务
根据配置
harbor.yml
配置项:
arbor_admin_password=harbor12345
,可得用户名密码:
admin
/
harbor12345
- Http访问


- Https 访问 *

3.3.3、部署应用
3.3.3.1、shell登录
个人私服搭建完成。现在进行私服的登录,并进行
images
的上传下载。
#进行登录即可docker login 192.168.57.131

如果出现这个错误,可是看一下配置文件
harbor.yml
中
external_url
是否配置了。
根据博客解决harbor无法登录的问题中描述,是因为
external_url
的问题,后来经过排查确实是这个问题。
#另外因为咱们本地可能已经登陆了其他的 docker私服,或者是配置了 docker私服,导致上面的命令登录的时候,会出现错误!#推荐使用这个命令。docker login -u admin -p Harbor12345 192.168.57.131

3.3.3.2、创建仓库

3.3.3.3、上传私服
#将自己images改名 改为docker tag SOURCE_IMAGE[:TAG]192.168.57.131/private/REPOSITORY[:TAG]#示例docker tag demo:latest 192.168.57.131/private/demo:latest
#上传docker push 192.168.57.131/private/demo:latest


#下载docker pull 192.168.57.131/private/demo:latest
#或者是使用人家harbor提供的命令。不过这个命令需要在页面系统上进行复制。。。普通用户是无法登陆私服的,一般上面那个就可以使用。docker pull 192.168.57.131/private/demo@sha256:32f8cf4bf6412626b21273fed376182b6786b75182e4a19f90f3f57d01362fbb

4、Swarm
官网地址:https://docs.docker.com/engine/swarm/
开源代码:https://github.com/docker/swarm
4.1、简介
Swarm是Docker官方提供的一款集群管理工具,能够跨节点的容器编排,其主要作用是把若干台Docker主机抽象为一个整体,并且通过一个入口统一管理这些Docker主机上的各种Docker资源。Swarm和Kubernetes比较类似,但是更加轻,具有的功能也较kubernetes更少一些。
不同的是,Docker Compose 是一个在单个服务器或主机上创建多个容器的工具,而 Docker Swarm 则可以在多个服务器或主机上创建容器集群服务,对于微服务的部署,显然 Docker Swarm 会更加适合。
从 Docker 1.12.0 版本开始,Docker Swarm 已经包含在 Docker 引擎中(docker swarm),并且已经内置了服务发现工具,我们就不需要像之前一样,再配置 Etcd 或者 Consul 来进行服务发现配置了。
4.2、大体架构

上面的部分,是
swarm manager
,下面的是
worker node
。
**
swarm manager
**,即节点(集群)管理处
管理节点处理集群管理任务:
- 维护集群状态
- 调度服务
- 服务群模式HTTP API 端点
其内部使用
Raft
实现,管理器维护整个 swarm 及其上运行的所有服务的一致内部状态。出于测试目的,可以使用单个管理器运行 swarm。如果单管理器群中的管理器出现故障,您的服务会继续运行,但您需要创建一个新集群来恢复。
为了利用 swarm 模式的容错特性,Docker 建议您根据组织的高可用性要求实现奇数个节点。当您有多个管理器时,您可以在不停机的情况下从管理器节点的故障中恢复。
- 三个管理器的群体最多可以容忍一个管理器的损失。
- 一个五管理器群可以容忍最大同时丢失两个管理器节点。
- 一个
N管理器集群最多可以容忍管理器的丢失(N-1)/2。 - Docker 建议一个群最多有七个管理器节点。
**
worker node
**,即工作节点
工作节点也是 Docker 引擎的实例,其唯一目的是执行容器。Worker 节点不参与 Raft 分布式状态,不做出调度决策,也不为 swarm 模式 HTTP API 提供服务。
您可以创建一个由一个管理器节点组成的群,但是如果没有至少一个管理器节点,您就不能拥有一个工作节点。默认情况下,所有经理也是工人。在单个管理器节点集群中,您可以运行类似命令
docker service create
,调度程序将所有任务放在本地引擎上。
为防止调度程序将任务放置在多节点群中的管理器节点上,请将管理器节点的可用性设置为
Drain
。调度器在
Drain
mode 中优雅地停止节点上的任务并调度
Active
节点上的任务 。调度程序不会将新任务分配给具有
Drain
可用性的节点。
4.3、工作原理

Swarm是典型的
master-slave结构
,通过发现服务来选举manager。manager是中心管理节点,各个node上运行agent接受manager的统一管理,集群会自动通过Raft协议分布式选举出manager节点,无需额外的发现服务支持,避免了单点的瓶颈问题,同时也内置了DNS的负载均衡和对外部负载均衡机制的集成支持。

Docker Engine client-docker service create:我们通过docker service create这个命令去创建一个服务。swarm manager-API:这个请求直接由Swarm manager的API进行接收,接收命令并创建服务对象。-orchestrator:为服务创建一个任务。-allocater:为这个任务分配IP地址。-dispatcher:将任务分配到指定的节点。-scheduler:再该节点中下发指定命令。worker node:接收manager任务后去运行这个任务 -container:创建相应的容器。-worker:连接到调度程序以检查分配的任务-executor:执行分配给工作节点的任务
4.4、Swarm集群搭建
在线Swarm演示:http://labs.play-with-docker.com 。通过Dock Hub 的账号密码登录即可,注意哈,有效会话4个小时。
如图所示,咱们需要准备三个节点,一个是
manager node
,另外两个是
work node
。
注意:修改另外两个节点的hostname,使其三个节点的hostname,不重复
- 创建manager节点
docker swarm init --advertise-addr 192.168.57.131

#注意:上面的执行日志,需要拿到token,以便下一步的node节点的加入docker swarm join\--token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9 \192.168.57.131:2377
- work点加入集群
#分别进入两个两个work节点,修改两个节点的hostname,否则通过manager查看节点的时候会无法区分。[root@localhost ~]# sudo hostnamectl set-hostname work.node.01[root@localhost ~]# hostnamectl
Static hostname: work.node.01
Icon name: computer-vm
Chassis: vm
Machine ID: f7c149e722294dd1bd78ece186af5379
Boot ID: 62417a21b65f4b2cbc457d5e79a71d2d
Virtualization: vmware
Operating System: CentOS Linux 7(Core)
CPE OS Name: cpe:/o:centos:centos:7
Kernel: Linux 3.10.0-1160.88.1.el7.x86_64
Architecture: x86-64
#执行上一步拿到的 token 以及 命令#=========================报错了=====================================[root@localhost ~]# docker swarm join \>--token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9 \>192.168.57.131:2377
Error response from daemon: rpc error: code =14 desc = grpc: the connection is unavailable
#==========================报错解决后====================================[root@localhost ~]# docker swarm join --token SWMTKN-1-3i5hu5a2grgh2tdg4505023mgjfgp4ah8030erm2qz09unnkdi-cr7kvbrxtdv9yifqrptyzyth9 192.168.57.131:2377
This node joined a swarm as a worker.
出现在这个错误,是因为防火墙的问题,
manager
的防火墙未关闭导致的。
#可以停掉防火墙
systemctl stop firewalld.service
#或者是开放防火墙2377端口。
firewall-cmd --add-port=2377/tcp --permanent#查看端口开发情况
firewall-cmd --zone=public --list-ports
#如果是增加开发端口后,一定重启防火墙
firewall-cmd --reload
注意:防火墙的关闭/端口开放,work节点也要加的,否则会报错。
关闭防火墙,再次使用
join
命令,重新加入
manager

3. 验证节点数量
#在manager上查看节点数量dockernodels#从集群中移除。注意本命令在work.node上执行docker swarm leave -fdocker swarm leave --force#错误的节点,可以(使用node的id)直接在manager删除掉dockernoderm$nodeID
移除之后,就会发现节点
STATUS
变为
Down
。不过不知道为啥
hostname
没有发生变化。
移除之后,重新添加集群,就会发现该节点出现了。
最后两个节点都启动起来。

- node类型转换
# 可以将worker提升成manager,从而保证manager的高可用dockernode promote worker01-node
dockernode promote worker02-node
#降级可以用demotedockernode demote worker01-node
4.5、Raft一致性协议
swarm内部使用的是raft一致性协议,这个协议只要节点半数存活,集群可用。而不是挂掉一个节点,整个集群都奔溃了!
下面验证这个结论:
- 一主两从
停掉一个work节点
再manager就会发现,已经启动的集群,服务还能工作。只不过切换到其他节点上了。
停掉第二个work节点
再manager就会发现,已经启动的集群,服务还能工作。只不过都跑到manager上了
work节点蹦了,也无所谓,manager会分担其压力,不会导致集群崩溃。
- 两主一从
简单验证一下。关于work节点关闭后,集群还能正常运行,就不截图了,上面已经验证过了。总共两个manager,咱们关闭一个,看一下效果:
那如果咱们没有关闭work,只关闭一个manager是不是集群还能存活?验证如下:两个主节点关闭一个,剩余一个主节点,一个work节点,集群也办法运行。
> manage宕机超过半数(包括半数),进群就会挂掉!
- 三主零从

停掉另外两个节点,就会发现在 第一个manager上执行
docker node ls
命令会报错,因为集群蹦了。。。。

三主的,再次验证了上面的结论:manage宕机超过半数(包括半数),集群就会挂掉!
Raft一致性协议:只要主节点存活超过半数,则集群存活。
4.6、镜像部署集群
在【4.4】章节,咱们搭建起来了集群,那现在咱们开始在集群上运行咱们的项目。
要想运行项目,就需要使用一个命令
docker service
4.6.1、docker service命令

4.6.1.1、创建service
# 跟单机启动差不多,参数啥的都是一样的。不同的是,启动时使用的命令不一样#一个是 docker run 一个是docker servicedockerservice create --name my_tomcat tomcat
4.6.1.2、查看当前swarm下的服务
dockerservicels
4.6.1.3、查看service的运行日志
dockerservice logs my_tomcat
4.6.1.4、查看service的运行在哪个节点
dockerserviceps my_tomcat
4.6.1.5、删除服务
dockerservicerm my_tomcat
4.6.1.6、扩容/缩容
#将my_tomcat服务扩容/缩容到5个dockerservice scale my_tomcat=5
4.6.1.7、查看服务详情
dockerservice inspect my_tomcat
4.6.1.8、更新以及回滚
# 更新 操作参数 太多。。。只讲几个常用的。具体的自己使用 docker service update --help 查看帮助文档
dcoker service update
--image tomcat:9.0.6 my_tomcat #更新tomcat版本
--host-add www.baid.com:180.101.50.188 #增加host映射--argsquerylog=/opt/log #增加参数,一般用于增加一些启动参数/环境变量/运行属性--workdir xxx #指定运行目录
--dns-add #增加一个dns#如果更新出错,可是使用rollback命令dockerservice rollback my_tomcat
4.6.2、部署服务
假设咱们以
tomcat
为基础镜像,已经构建了一个自己项目的镜像
tomcat:0.0.1
,且集群已经构建完毕。
现在咱们开始部署:
- 在manager上创建service
#首先在 manager 节点[root@manager tomcat]# docker service create --name my-tomcat tomcat:0.0.1
Error response from daemon: rpc error: code =4 desc = context deadline exceeded
#该错误表示找不到其他的节点,说明work节点上的端口没有开放。我加了防火墙后,问题解决。[root@manager tomcat]# docker service create --name my-tomcat tomcat:0.0.1
unable to pin image tomcat:0.0.1 to digest: manifest unknown: manifest unknown
h3l43kn3sgmnqtfvd4sgqckay
虽然上面的执行报错了,但是其实咱们执行成功了,明显的看见创建了一条新的
service
。
此时节点上,都没有在运行的容器

- 扩容
#将该服务扩容为5个dockerservice scale [serviceName]=5#将 my_tomcat 扩容为5dockerservice scale my-tomcat=5
为啥会出现这种问题。是因为 其他的work节点,没有这个
tomcat:0.0.1
镜像,所以其他启动的时候,会被拒绝。。启动到
manager
上了…
#咱们换一个,用redis的images启动,就会发现没问题了。。。因为其他节点redis的images都有dockerservice create --name redis redis:alpine
dockerservice scale redis=5
再次验证一下,服务都启动在manager,是不是work节点上包的问题哈
#再次验证一下是不是包的问题哈。#在每个节点上都构建一个程序包的景象 mytomcat:0.0.1docker build -f Dockerfile -t mytomcat:0.0.1 .


结论:想要使用swarm,扩充集群。work节点上的镜像,也必须要构建一下。。。。怪不得,swarm现在很少人在使用。。。
另外还有多东西都没写,swarm集群进行部署服务的时候,出现各种问题,建议换个新版本的
docker。我之前在
docker v2.0+,碰到的swarm的各种问题,在
docker v24+的时候,根本就没碰到过。。。
版权归原作者 杀戮苍生 所有, 如有侵权,请联系我们删除。