K8s搭建过程,新手闭眼入!!!超详细教程

随笔1周前发布 酒制家
19 0 0

一、k8s搭建harbor仓库

前提:在另一台主机已搭建好harbor私人仓库,之前博客中有详细记录

环境:准备三台主机,一台master,一台node1,一台node2

一下操作三台主机均需实现

1.本地解析

将harbor镜像仓库所在的主机的域名写在所有主机的本地解析中

K8s搭建过程,新手闭眼入!!!超详细教程

K8s搭建过程,新手闭眼入!!!超详细教程

K8s搭建过程,新手闭眼入!!!超详细教程

2.下载安装docker

三台主机都需安装docker

获取docker软件包

https://mirrors.aliyun.com/docker-ce/linux/rhel/9/x86_64/stable/Packages

下载时,会失败

原因:企业9默认安装了runc,与docker冲突,需要先卸载 

K8s搭建过程,新手闭眼入!!!超详细教程

[root@k8s-master mnt]# dnf remove -y runc

将镜像拷贝至其他主机

K8s搭建过程,新手闭眼入!!!超详细教程

3.编写daemon.json文件

三台主机都需完成此操作 




[root@k8s-master ~]# vim /etc/docker/daemon.json 


{


  "registry-mirrors":["https://reg.lm.org"]


}


[root@k8s-master ~]# systemctl daemon-reload 


[root@k8s-master ~]# systemctl enable --now docker

K8s搭建过程,新手闭眼入!!!超详细教程4.复制harbor仓库中的证书并启动docker

reg.lm.org为harbor仓库的域名

K8s搭建过程,新手闭眼入!!!超详细教程

K8s搭建过程,新手闭眼入!!!超详细教程

5.登录docker

K8s搭建过程,新手闭眼入!!!超详细教程

登录失败

问题:关闭harbor仓库时,某些容器好像会出现问题

解决:重启容器编排!!!!




# harbor主机


[root@reg ~]# cd harbor/


[root@reg harbor]# docker compose down


[root@reg harbor]# docker compose up -d

K8s搭建过程,新手闭眼入!!!超详细教程

账号和密码在harbor主机的harbor.yml文件中

完成以上操作,三台主机需都具备拉取镜像的能力,如果不具备,则需再仔细检查 

6.从harbor仓库中拉取镜像

K8s搭建过程,新手闭眼入!!!超详细教程

二、K8s集群环境搭建

1.三台主机锁住swap交换分区

(1)查看交换分区

[root@k8s-master ~]# systemctl list-unit-files | grep swap

K8s搭建过程,新手闭眼入!!!超详细教程

(2)锁住swap.target

K8s搭建过程,新手闭眼入!!!超详细教程

(3)注释掉swap分区,避免开机自启

K8s搭建过程,新手闭眼入!!!超详细教程

K8s搭建过程,新手闭眼入!!!超详细教程

(4)关闭swap




[root@k8s-master ~]# swapoff -a


# 查看,如果什么都没有代表锁住


[root@k8s-master ~]# swapon -s

K8s搭建过程,新手闭眼入!!!超详细教程

如果不锁住交换分区,后面kubelet启动不了

3.三台主机安装K8s部署工具

kubelet、kubeadm、kubectl




#部署软件仓库,添加K8S源


[root@k8s-master ~]# vim /etc/yum.repos.d/k8s.repo


[k8s]


name=k8s


baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.30/rpm


gpgcheck=0


 


#安装软件


[root@k8s-master ~]# dnf install kubelet-1.30.0 kubeadm-1.30.0 kubectl-1.30.0 -y

4.三台主机设置kubectl命令补齐功能




[root@k8s-master ~]# dnf install bash-completion -y


[root@k8s-master ~]# echo "source <(kubectl completion bash)" >> ~/.bashrc


[root@k8s-master ~]# source  ~/.bashrc

5.三台主机安装cri-docker

k8s从1.24版本开始移除了dockershim,所以需要安装cri-docker插件才能使用docker

软件下载:https://github.com/Mirantis/cri-dockerd




[root@k8s-master ~]# dnf install libcgroup-0.41-19.el8.x86_64.rpm cri-dockerd-0.3.14-3.el8.x86_64.rpm -y


[root@k8s-master ~]# vim /lib/systemd/system/cri-docker.service


# 修改


#指定网络插件名称及基础容器镜像


ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd:// --network-plugin=cni --pod-infra-container-image=reg.lm.org/k8s/pause:3.9


[root@k8s-master ~]# systemctl daemon-reload


[root@k8s-master ~]# systemctl start cri-docker


[root@k8s-master ~]# systemctl enable --now cri-docker


Created symlink /etc/systemd/system/multi-user.target.wants/cri-docker.service → /usr/lib/systemd/system/cri-docker.service.


[root@k8s-master ~]# ll /var/run/cri-dockerd.sock 


srw-rw---- 1 root docker 0 Sep  2 15:54 /var/run/cri-dockerd.sock

6.拉取K8s需要的镜像(master)




[root@k8s-master ~]# kubeadm config images pull 


--image-repository registry.aliyuncs.com/google_containers 


--kubernetes-version v1.30.0 


--cri-socket=unix:///var/run/cri-dockerd.sock

7.上传镜像到harbor仓库(master)

注意:需在harbor仓库中创建项目

K8s搭建过程,新手闭眼入!!!超详细教程




[root@k8s-master ~]# docker images | awk '/google/{ print $1":"$2}' 


| awk -F "/" '{system("docker tag "$0" reg.lm.org/k8s/"$3)}'


 


[root@k8s-master ~]# docker images  | awk '/k8s/{system("docker push "$1":"$2)}'	


 


# 如果出现错误,删除镜像


docker images | awk '/reg.lm.org/{system("docker rmi "$1":"$2"")}'

8.集群初始化(master)




#启动kubelet服务


[root@k8s-master ~]# systemctl enable --now kubelet


Created symlink /etc/systemd/system/multi-user.target.wants/kubelet.service → /usr/lib/systemd/system/kubelet.service.


 


#执行初始化命令


[root@k8s-master ~]# kubeadm init --pod-network-cidr=10.244.0.0/16 


--image-repository reg.lm.org/k8s 


--kubernetes-version v1.30.0 


--cri-socket=unix:///var/run/cri-dockerd.socke


 


#指定集群配置文件变量


[root@k8s-master ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile


 


[root@k8s-master ~]# kubectl get node


NAME        STATUS     ROLES           AGE     VERSION


k8s-master  NotReady   control-plane   4m25s   v1.30.0.0

状态为NotReady,需要网络插件

9.安装flannel网络插件(master)

官方网站:https://github.com/flannel-io/flannel

获取到镜像包后,加载至docker镜像




docker load -i flannel/flannel:v0.25.5


docker load -i flannel/flannel-cni-plugin:v1.5.1-flannel1



#上传镜像到仓库


[root@k8s-master ~]# docker tag flannel/flannel:v0.25.5 reg.lm.org/flannel/flannel:v0.25.5


[root@k8s-master ~]# docker push reg.lm.org/flannel/flannel:v0.25.5


 


[root@k8s-master ~]# docker tag flannel/flannel-cni-plugin:v1.5.1-flannel1 reg.lm.org/flannel/flannel-cni-plugin:v1.5.1-flannel1


[root@k8s-master ~]# docker push reg.lm.org/flannel/flannel-cni-plugin:v1.5.1-flannel1


 


#编辑kube-flannel.yml 修改镜像下载位置


[root@k8s-master ~]# vim kube-flannel.yml


 


#需要修改以下几行


[root@k8s-master ~]# grep -n image kube-flannel.yml


146:        image: reg.lm.org/flannel/flannel:v0.25.5


173:        image: reg.lm.org/flannel/flannel-cni-plugin:v1.5.1-flannel1


184:        image: reg.lm.org/flannel/flannel:v0.25.5


 


#安装flannel网络插件


[root@k8s-master ~]# kubectl apply -f kube-flannel.yml

10.在master获取节点状态




[root@k8s-master ~]# kubectl get node


NAME         STATUS   ROLES           AGE     VERSION


k8s-master   Ready    control-plane   4h47m   v1.30.0

11.重新生成集群token




[root@k8s-master mnt]#  kubeadm token create --print-join-command


kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 

三、节点扩容

思路:

在所有的worker节点中

1 确认部署好以下内容

2 禁用swap

3 安装:

– kubelet-1.30.0
– kubeadm-1.30.0 
– kubectl-1.30.0 
– docker-ce
– cri-dockerd

4 修改cri-dockerd启动文件添加 

– –network-plugin=cni
– –pod-infra-container-image=reg.timinglee.org/k8s/pause:3.9

5 开机自启服务

– cri-docker.service

systemctl enable –now cri-docker

– kubelet.service

systemctl enable –now kubelet

节点加入集群 




[root@k8s-node1 ~]# kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 --cri-socket=unix:///var/run/cri-dockerd.sock


[root@k8s-node2 ~]# kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 --cri-socket=unix:///var/run/cri-dockerd.sock

在master查看node状态




[root@k8s-master ~]# kubectl get nodes


NAME         STATUS   ROLES           AGE     VERSION


k8s-master   Ready    control-plane   5h8m    v1.30.0


k8s-node1    Ready    <none>          4h18m   v1.30.0


k8s-node2    Ready    <none>          3h55m   v1.30.0

完成以上操作,就算是部署K8s完成了

我们再来测试一下




#建立一个pod


[root@k8s-master ~]# kubectl run test --image nginx


pod/test created


#查看pod状态


[root@k8s-master ~]# kubectl get pods


NAME   READY   STATUS              RESTARTS   AGE


test   0/1     ContainerCreating   0          13s


#删除pod


[root@k8s-master ~]# kubectl delete pod
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...