Kubernetes集群部署篇1

网友投稿 235 2022-10-18

Kubernetes集群部署篇1

11、kube-proxy 开启 ipvs 前置条件

modprobe br_netfilter

cat > /etc/sysconfig/modules/ipvs.modules <

#!/bin/bash

modprobe -- ip_vs

modprobe -- ip_vs_rr

modprobe -- ip_vs_wrr

modprobe -- ip_vs_sh

modprobe -- nf_conntrack_ipv4

EOF

使用lsmod命令查看这些文件是否被引导

3、docker部署

1、安装依赖

yum install -y yum-utils device-mapper-persistent-data lvm2

添加yum软件源

(配置一个稳定(stable)的仓库、仓库配置会保存到/etc/yum.repos.d/docker-ce.repo文件中)

以下两个选一即可

yum-config-manager --add-repo --add-repo CE

yum update -y && yum install docker-ce

测试是否安装成功

docker -v

yum下载失败解决示例

如果出现下载失败的问题,例如下面这样

Error downloading packages:

3:docker-ce-19.03.12-3.el7.x86_64: [Errno 256] No more mirrors to try.

containerd.io-1.2.13-3.2.el7.x86_64: [Errno 256] No more mirrors to try

清除yum缓存

yum clean all

执行上面添加yum软件源的命令切换源

查看仓库配置是否修改生效

vi /etc/yum.repos.d/docker-ce.repo

重新执行如下更新下载命令

yum update -y && yum install docker-ce

2、设置docker daemon文件

创建/etc/docker目录

mkdir /etc/docker

更新daemon.json文件+配置阿里云容器镜像服务

cat > /etc/docker/daemon.json <

{

"exec-opts": ["native.cgroupdriver=systemd"],

"registry-mirrors": [""json-file",

"log-opts": {"max-size": "100m"}

}

EOF

注意: 一定注意编码问题,出现错误:查看命令:journalctl -amu docker 即可发现错误

创建,存储docker配置文件

mkdir -p /etc/systemd/system/docker.service.d

3、重启docker服务并设置docker为开机自启动

systemctl daemon-reload && systemctl restart docker && systemctl enable docker

docker images 测试一下,注:如果无法启动说明配置文件有问题

4、kubeadm[一键安装k8s]

安装kubernetes的时候,需要安装kubelet, kubeadm等包,但k8s官网给的yum源是

packages.cloud.google.com,国内访问不了,此时我们可以使用阿里云的yum仓库镜像

1、配置阿里云的yum仓库镜像

cat < /etc/yum.repos.d/kubernetes.repo

[kubernetes]

name=Kubernetes

baseurl=install -y kubeadm-1.15.1 kubelet-1.15.1 kubectl-1.15.1

将kubelet设置为开机自启动,并启动 kubelet

systemctl enable kubelet && systemctl start kubelet

二、集群安装

1、各节点安装基础镜像

展示出安装k8s需要哪些基础镜像

kubeadm config images list

kubeadm 初始化k8s集群的时候,会从gce Google云中下载(pull)相应的镜像,

当然可以选择执行 docker pull 根据上面命令展示出来的镜像,挨个拉取镜像

但是镜像相对比较大,下载可能会失败,所以导入下载好的镜像包到本地docker镜像仓库

注:下面的步骤在master主机执行即可

1、rz上传依赖镜像 tar包

解压镜像

解压结束后如图所示,当然可以也使用docker load -i xxx.tar挨个把tar包的镜像导入到本地仓库

2、编写脚本文件,导入镜像包到本地docker镜像仓库

任意目录下创建sh脚本文件

vi image-load.sh 导入下面脚本代码

注意 /root/kubeadm-basic.images 是你本机镜像解压的目录位置

#!/bin/bash

ls /root/kubeadm-basic.images > /tmp/images-list.txt

cd /root/kubeadm-basic.images

for i in $(cat /tmp/images-list.txt)

do

docker load -i $i

done

rm -rf /tmp/images-list.txt

修改权限,可执行权限

chmod 755 image-load.sh

运行脚本文件,开始执行镜像导入

./image-load.sh

查看本地仓库镜像

docker images

3、传输文件及镜像到其他node节点

注:其他机器也需要安装K8S的环境,所以传输镜像tar包及脚本文件到其他node节点

注:在当前master主机执行

传递到node01节点

scp -r image-load.sh kubeadm-basic.images root@k8s-node01:/root/

传递到node02节点

scp -r image-load.sh kubeadm-basic.images root@k8s-node02:/root/

其他节点依次执行sh脚本,导入镜像

./image-load.sh

2、部署Kubernetes

通过部署yaml文件,来达到一键式部署

注:下面的步骤在master主机执行即可

1、拉取yaml资源配置文件

kubeadm config print init-defaults > kubeadm-config.yaml

2、修改yaml资源文件

注:需要修改的部分如下图所示

localAPIEndpoint:

advertiseAddress: 192.168.52.105 # 注意:修改配置文件的IP地址

kubernetesVersion: v1.15.1 #注意:修改版本号,必须和kubectl版本保持一致

networking:

# 指定flannel模型通信 pod网段地址,此网段和flannel网段一致,不用变

podSubnet: "10.244.0.0/16"

serviceSubnet: "10.96.0.0/12"

#添加如下内容指定使用ipvs网络进行通信,注意缩进

---

apiVersion: kubeproxy.config.k8s.io/v1alpha1

kind: kubeProxyConfiguration

featureGates:SupportIPVSProxyMode: true

mode: ipvs

3、初始化主节点,开始部署

kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee

kubeadm-init.log

注意:执行此命令,CPU核心数量必须大于1核,否则无法执行成功

kubernetes主节点初始化成功后

4、按照K8S的提示执行如下命令

创建目录,保存连接配置缓存,认证文件

mkdir -p $HOME/.kube

拷贝集群管理配置文件

cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

授权给配置文件

chown $(id -u):$(id -g) $HOME/.kube/config

查询node节点

kubectl get node

发现已经可以成功查询node节点信息了,但是节点的状态却是NotReady,不是Runing的状态。原因是

此时我们使

用ipvs+flflannel的方式进行网络通信,但是flflannel网络插件还没有部署,因此节点状态此时为

NotReady

3、部署flflannel网络插件

同样,拉取国外镜像较慢且容易失败,所以使用本地下载好的flflannel镜像,将flflannel.tar包上传,

注意:主从节点均需要上传并执行后续的导入和打标签操作

将镜像tar包导入到本地镜像库

docker load -i flannel.tar

给镜像打标签,在本地仓库生成新的v1版本镜像

docker tag quay-mirror.qiniu.com/coreos/flannel:v0.12.0-amd64 flannel:v1

注:docker images 查看主从机器

注意:后面步骤在master主机执行即可

传入本地的yml文件 (修改为flflannel:v1版本的)**

yml部署flflannel

kubectl create -f kube-flannel.yml

执行成功以后 kubectl get node 查看,可能仍然是NotReady状态,需要一些时间可以通过 kubectl get pod -n kube-system 查看kube-system已经运行的系统pod里flflannel是否运

查看时若处于Ready状态,说明网络组件已经部署成功

附录:kubectl get pod -n kube-system 解释

所有k8s的资源都是通过镜像的方式做部署的,运行的模式就是通过pod体现,这些pod就是k8s的系统

资源的pod

-n表示namespace 表示在kube-system这个命名空间下的pod的信息

可以追加 -o wide 查看pod详细信息

kubectl get pod -n kube-system -o wide

附录:发现通过flflannel部署的pod都出现pending,ImagePullBackOffff类似问题

查询一个pod的详细日志信息,找到错误原因(一般为镜像拉去失败)

kubectl describe pod kube-flannel-ds-amd64-jd67h -n kube-system

如果kube-flflannel.yml文件修改过,则使用下面的命令来更新并部署

kubectl apply -f kube-flannel.yml

4、其他node节点加入

构建kubernetes主节点成功,会产生一个日志文件kubeadm-init.log,内容如下图所示:

(命令中指定了日志输出文件 “tee kubeadm-init.log”)

加入主节点以及其余工作节点,执行安装日志中的命令即可

查看日志文件

cat kubeadm-init.log

下图红色部分给出的命令即是把其他节点加入进来的命令

复制命令到其他几个node节点进行执行即可(注意是在其他从机服务器上执行)

执行完毕,可以在master主机查看 kubectl get node

发现还有节点处于NotReady状态,是因为这些节点pod容器还处于初始化的状态,需要时间

当其他node节点jun加入进来且处于Ready状态,则K8S集群搭建成功

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Kubernetes集群部署篇
下一篇:SpringBoot自定义加载yml实现方式,附源码解读
相关文章

 发表评论

暂时没有评论,来抢沙发吧~