0


K8S集群搭建——cri-dockerd版(包含问题解决方案)

一.前期准备

1.更新软件包(每个节点都要做)

  1. yum update -y
  2. yum upgrade -y
  3. #添加yum源
  4. mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
  5. curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-7.repo
  6. yum -y install wget
  7. wget -O /etc/yum.repos.d/epel.repo https://mirrors.aliyun.com/repo/epel-7.repo
  8. #安装要使用的插件,基本的命令工具
  9. yum -y install net-tools lrzsz wget tree vim unzip bash-completion bash-completion-extra ntpdate

2.关闭防火墙,SELinux,swap分区(修改完SELinux需要重启主机,每个节点都要做)

  1. systemctl stop firewalld
  2. systemctl disable firewalld
  3. sed -i 's/enforcing/disabled/' /etc/selinux/config
  4. sed -ri 's/.*swap.*/#&/' /etc/fstab
  5. swapon -a
  6. df -h
  7. # -r 支持扩展正则+ ? () {} |
  8. # -i:直接修改文件,而不是输出到标准输出。这意味着命令会直接更改 /etc/fstab 文件的内容,而不是仅仅显示更改。
  9. # 's/.*swap.*/#&/':这是 sed 的命令模式,其中:
  10. # s:表示替换操作。
  11. # &:在替换模式中,& 表示匹配的文本(即所有匹配到的 swap 相关的行)。
  12. # #&:在替换模式中,# 是注释符号,所以 #& 表示将匹配到的行前面添加 #,从而注释掉这些行。

3.安装docker(借鉴阿里云安装Docker-CE,每个节点都要做)

  1. # step 1: 安装必要的一些系统工具
  2. yum install -y yum-utils device-mapper-persistent-data lvm2
  3. # Step 2: 添加软件源信息
  4. yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  5. # Step 3
  6. sed -i 's+download.docker.com+mirrors.aliyun.com/docker-ce+' /etc/yum.repos.d/docker-ce.repo
  7. # Step 4: 更新并安装Docker-CE
  8. yum makecache fast
  9. yum -y install docker-ce
  10. # Step 4: 开启Docker服务
  11. systemctl enable --now docker
  12. #添加镜像加速器
  13. sudo mkdir -p /etc/docker
  14. sudo tee /etc/docker/daemon.json <<-'EOF'
  15. {
  16. "registry-mirrors": ["https://pu7lyu61.mirror.aliyuncs.com"]
  17. }
  18. EOF
  19. sudo systemctl daemon-reload
  20. sudo systemctl restart docker

二.K8s相关组件安装

1.首先规划一下IP分配

主机名IP地址节点k8s-master192.168.113.120masterk8s-node1192.168.113.121node1k8s-node2192.168.113.122node2

2.配置免密登录(可选,为了方便切换节点,我这里配置了免密登录)

  1. #master执行
  2. ssh-keygen
  3. cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys
  4. scp -rp /root/.ssh/* root@192.168.113.121:/root/.ssh/
  5. scp -rp /root/.ssh/* root@192.168.113.122:/root/.ssh/

3.修改host文件,方便节点间相互解析

  1. #master执行
  2. cat >> /etc/hosts << EOF
  3. 192.168.113.120 k8s-master
  4. 192.168.113.121 k8s-node1
  5. 192.168.113.122 k8s-node2
  6. EOF
  7. #给每个节点都传一份
  8. vim host.sh
  9. for i in `seq 1 2`
  10. do
  11. scp /etc/hosts root@k8s-node$i:/etc/hosts
  12. done

4.将桥接的IPv4流量传递到iptables的链(每个节点都要做)

  1. cat > /etc/sysctl.d/k8s.conf << EOF
  2. net.bridge.bridge-nf-call-ip6tables = 1
  3. net.bridge.bridge-nf-call-iptables = 1
  4. EOF
  5. sysctl --system

5.安装K8s相关组件(每个节点都要做)

  1. #我这里安装最新版的k8s相关组件,你可以修改具体的版本号来自定义安装
  2. cat <<EOF | tee /etc/yum.repos.d/kubernetes.repo
  3. [kubernetes]
  4. name=Kubernetes
  5. baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.30/rpm/
  6. enabled=1
  7. gpgcheck=1
  8. gpgkey=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.30/rpm/repodata/repomd.xml.key
  9. EOF
  10. setenforce 0
  11. yum install -y kubelet kubeadm kubectl
  12. systemctl enable kubelet && systemctl start kubelet

6.添加命令补全(看个人习惯,可选)

  1. #添加命令补全
  2. source /usr/share/bash-completion/bash_completion
  3. source <(kubectl completion bash) # 在 bash 中设置当前 shell 的自动补全,要先安装 bash-completion 包。
  4. echo "source <(kubectl completion bash)" >> ~/.bashrc # 在您的 bash shell 中永久的添加自动补全
  5. source ~/.bashrc

7.时间同步(每台节点都要做,必做,否则可能会因为时间不同步导致集群初始化失败)

  1. #主机执行脚本
  2. vim ntp.sh
  3. for i in `seq 120 122`
  4. do
  5. ssh 192.168.113.$i "ntpdate cn.ntp.org.cn"
  6. done

8.修改docker的daemon.json文件(因为K8s默认使用systemd驱动,详细原因请看官方文档)

  1. #而docker的cri-dockerd默认Cgroup驱动,所以需要修改
  2. "exec-opts": ["native.cgroupdriver=systemd"]
  3. #修改以后重启docker
  4. systemctl restart docker

9.由于K8s丛1.24版本以后停止支持dockershim,默认使用containerd

由于以前搭建k8s集群默认使用containerd来做容器运行时,这次使用cri-dockerd(可以参考下面这两篇博客,写的很详细)

这是cri-dockerd的官方下载渠道:Releases · Mirantis/cri-dockerd · GitHub(新版本基本是已经处理好的rpm,只需要yum安装即可,非常方便)

参考文档:k8s 1.24 及以后版本如何对接 docker_nothing provides fuse-overlayfs >= 0.7 needed by d-CSDN博客

k8s集群搭建教程(使用cri-docker+flannel) | CodeCook (dettry.github.io)

10.Kubeadm初始化集群

  1. #apiserver修改成自己的master节点ip
  2. kubeadm init \
  3. --apiserver-advertise-address=192.168.113.120 \
  4. --image-repository=registry.aliyuncs.com/google_containers \
  5. --kubernetes-version=v1.30.1 \
  6. --service-cidr=10.96.0.0/12 \
  7. --pod-network-cidr=10.244.0.0/16 \
  8. --cri-socket=unix:///var/run/cri-dockerd.sock

根据系统提示创建具体文件

  1. mkdir -p $HOME/.kube
  2. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  3. sudo chown $(id -u):$(id -g) $HOME/.kube/config
  4. 以下是 cp 命令的一些常用选项:
  5. -r --recursive:递归复制,用于连同子目录一起复制目录。
  6. -i --interactive:交互式模式,在覆盖文件前提示用户。
  7. -v --verbose:详细模式,显示复制过程中的信息。
  8. -p --preserve:保留原文件的属性,如修改时间、访问时间、所有者、权限等。
  9. -u --update:仅当源文件比目标文件新,或者目标文件不存在时,才复制文件。

##这是刚刚上面的提示##

  1. ##这是刚刚上面的提示##
  2. Your Kubernetes control-plane has initialized successfully!
  3. To start using your cluster, you need to run the following as a regular user:
  4. mkdir -p $HOME/.kube
  5. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  6. sudo chown $(id -u):$(id -g) $HOME/.kube/config
  7. Alternatively, if you are the root user, you can run:
  8. export KUBECONFIG=/etc/kubernetes/admin.conf
  9. You should now deploy a pod network to the cluster.
  10. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  11. https://kubernetes.io/docs/concepts/cluster-administration/addons/
  12. Then you can join any number of worker nodes by running the following on each as root:
  13. kubeadm join 192.168.113.120:6443 --token rpypka.45mndosxyuszktgb \
  14. --discovery-token-ca-cert-hash sha256:914ada8e868898a477d39a4bdaee4d00a3acf28bc8b31c0147cdc78c84d107d0

大量报错

踩了一个大坑(节点无法加入到master节点上)

分析报错原因,是因为我们有两个容器运行时,一个cri-docker,另一个containerd,系统不知道你要用哪一个容器运行时,所以这个时候我们直接停掉containerd就行了,这是最简单高效的方法(摸索了小半个小时,网上各种攻略都行不通,最后还是需要自己去思考解决问题)

因为k8s默认containerd作为容器运行时,所以想要使用cri-dockerd,需要把containerd先停掉,否则,在node节点加入master节点时会报错,提示你有两个容器运行时,要使用哪一个
为什么我不直接去修改kubelet让他选择我的cri容器运行时?因为我找不到配置文件哈哈哈。网上有很多告诉你去修改/etc/sysconfig/kubelet这个kubelet的配置文件,但实际上根本没有这个文件

但是注意!!在node节点加入到master节点以后请把containerd打开,否则后续docker无法拉取镜像

以下是网上大部分人的解法(存在问题,修改完配置文件以后kubelet就无法正常启动了)请避坑,也有可能是我修改的有问题,各位可以自行修改尝试

node节点全都为NotReady

下图我们就可以看到,确实使用的docker engine,默认是containerd

NotReady排错(可以看到是集群内部网络出现了问题)

因为我们在初始化master节点的时候,是给Service和Pod划分过子网的,而K8s不自带网络插件,划分出来的子网又全是虚拟网络,这个时候肯定就没有办法进行通信了,所以我们需要安装相应的网络插件来解决这个问题,你可以选择安装flannel或者calico,甚至其他的各种网络插件,下面介绍使用calico插件
虽然我们节点虽然已经加入到master节点,但是我们没有安装网络插件,集群内部Pod和节点是无法通信的

  1. #下载calico/fannel网络插件
  2. curl -O https://docs.tigera.io/archive/v3.25/manifests/calico.yaml
  3. vim calico.yaml
  4. #这里修改为pod的所在子网
  5. kubectl create -f calico.yaml

node节点无法使用kubelet

这是由于node节点上没有admin.conf。出现这个问题的原因是kubectl命令需要使用kubernetes-admin的身份来运行,在“kubeadm int”启动集群的步骤中就生成了/etc/kubernetes/admin.conf,而node节点上是没有这个文件的,也就是系统认为工作节点时不能具有管理节点的权限,所以可以把master节点上的admin.conf拷贝到其他node节点上,这样就能通过认证,也能顺利的使用kubectl命令行工具了

  1. scp /etc/kubernetes/admin.conf root@k8s-node1:/etc/kubernetes/
  2. scp /etc/kubernetes/admin.conf root@k8s-node2:/etc/kubernetes/
  3. #添加到环境变量中,否则每次开机重启都会失效
  4. echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
  5. source ~/.bash_profile


本文转载自: https://blog.csdn.net/qq_61468858/article/details/139063860
版权归原作者 浮沉╮┊600 所有, 如有侵权,请联系我们删除。

“K8S集群搭建——cri-dockerd版(包含问题解决方案)”的评论:

还没有评论