kubernetes学习系列安装篇--第三篇:部署k8s集群- 单master

网友投稿 271 2022-10-28

kubernetes学习系列安装篇--第三篇:部署k8s集群- 单master

全程课程使用的材料到我的网盘下载,提取码:rhz8

1.准备镜像

参考 第一篇,主要将社区的k8s需要的image拉取到国内

2.基础环境准备

参考 第一篇: 准备yum源,安装docker-ce

3.安装kube

==注:==第3步需要在master1,host1机器上执行

配置安装源

#vim /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes Repo baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ gpgcheck=0 enable=1

安装kube

yum clean all yum -y install kubeadm-1.18.2 kubelet-1.18.2 kubectl-1.18.2 #版本一定是1.18.2,和k8s image 版本一致 yum -y install kubeadm-1.16.9 kubelet-1.16.9 kubectl-1.16.9 #版本一定是1.16.9,和k8s image 版本一致 #网盘里只支持两个版本 1.18.2和1.16.9

4.配置镜像仓库

==注:==第4步需要在master1,host1机器上执行

mkdir -p /etc/docker vim /etc/docker/daemon.json

添加私有仓库

{ "insecure-registries":["host7:2020"] # 更换成你的nexus主机名 }

启动docker

systemctl start docker systemctl enable docker.service systemctl status docker

5.初始化kubelete master

注: 更新配置文件

==注:==第5步需要在master1机器上执行

cd nexus3 vim init_kubelete.sh nexus_host="" #填写k8s第一篇里nexus的地址,nexus-host:2020

bash init_kubelete.sh

如果执行正常,会提示你添加kube conf

mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config

6.添加node节点

==注:==第5步需要在host1机器上执行

kubeadm join 10.216.0.183:6443 --token mpjcdl.c5f7t9yjp2ulnqqm \ --discovery-token-ca-cert-hash sha256:446f0e623456a228668a70c056a5153d88724cf4aa85e722dc3fc137d7186aae #再初始化master时,会输出这条命名

如果没有找到,可以在master1上再次生成:

kubeadm token create --print-join-command|sed 's/${LOCAL_IP}/${VIP}/g' #ip需要根据具体需要更换

注:经常发现加入节点后,node一直没有ready,pod一直init中。原因是镜像获取的问题

docker login $nexus_host:2020 -u admin -p "admin123" docker image pull $nexus_host:2020/flannel:v0.12.0-amd64 docker image pull $nexus_host:2020/kube-proxy:v1.18.2 ( /v1.16.9) docker image pull $nexus_host:2020/pause:3.2 (/3.1) docker tag $nexus_host:2020/kube-proxy:v1.18.2 k8s.gcr.io/kube-proxy:v1.18.2 ( /v1.16.9) docker tag $nexus_host:2020/flannel:v0.12.0-amd64 quay.io/coreos/flannel:v0.12.0-amd64 docker tag $nexus_host:2020/pause:3.2 k8s.gcr.io/pause:3.2 (/3.1)

7.验证集群

在master1上验证

kubectl get nodes #显示两个节点,一个master,一个node,状态为ready

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Istio 网关之南北向流量管理(内含服务网格专家亲自解答)
下一篇:Quarkus集成Dubbo服务Rpc远程通讯框架整合
相关文章

 发表评论

暂时没有评论,来抢沙发吧~