debian怎么配置静态ip地址
305
2022-09-10
CKA2练习题
#列出环境内所有的pv 并以 name字段排序(使用kubectl自带排序功能)
kubectl get pv --sort-by=.metadata.name
考点:kubectl命令熟悉程度
列出指定pod的日志中状态为Error的行,并记录在指定的文件上
kubectl logs | grep bash > /opt/KUCC000xxx/KUCC000xxx.txt
考点:Monitor, Log, and Debug
列出k8s可用的节点,不包含不可调度的 和 NoReachable的节点,并把数字写入到文件里
#笨方法,人工数
kubectl get nodes
#CheatSheet方法,应该还能优化JSONPATH
JSONPATH='{range .items[*]}{@.metadata.name}:{range @.status.conditions[*]}{@.type}={@.status};{end}{end}' \ && kubectl get nodes -o jsonpath="$JSONPATH" | grep "Ready=True"
考点:kubectl命令熟悉程度
参考:kubectl cheatsheet
创建一个pod名称为nginx,并将其调度到节点为 disk=stat上
#我的操作,实际上从文档复制更快
kubectl run nginx --image=nginx --restart=Never --dry-run > 4.yaml
#增加对应参数 vi 4.yaml
kubectl apply -f 4.yaml
apiVersion: v1kind: Podmetadata: name: nginx labels: env: testspec: containers: - name: nginx image: nginx imagePullPolicy: IfNotPresent nodeSelector: disktype: ssd
考点:pod的调度。
参考:assign-pod-node
提供一个pod的yaml,要求添加Init Container,Init Container的作用是创建一个空文件,pod的Containers判断文件是否存在,不存在则退出
apiVersion: v1kind: Podmetadata: name: nginxspec: containers: - name: apline image: nginx command: ['sh', '-c', 'if [目录下有work文件];then sleep 3600; else exit; fi;']###增加init Container####initContainers: - name: init image: busybox command: ['sh', '-c', 'touch /目录/work;']
考点:init Container。一开始审题不仔细,以为要用到livenessProbes
参考:init-containers
指定在命名空间内创建一个pod名称为test,内含四个指定的镜像nginx、redis、memcached、busybox
kubectl run test --image=nginx --image=redis --image=memcached --image=buxybox --restart=Never -n
考点:kubectl命令熟悉程度、多个容器的pod的创建
参考:kubectl cheatsheet
创建一个pod名称为test,镜像为nginx,Volume名称cache-volume为挂在在/data目录下,且Volume是non-Persistent的
apiVersion: v1kind: Podmetadata: name: testspec: containers: - image: nginx name: test-container volumeMounts: - mountPath: /cache name: cache-volume volumes: - name: cache-volume emptyDir: {}
考点:Volume、emptdir
参考:Volumes
列出Service名为test下的pod 并找出使用CPU使用率最高的一个,将pod名称写入文件中
#使用-o wide 获取service test的SELECTOR
kubectl get svc test -o wide
##获取结果我就随便造了
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTORtest ClusterIP None 3306/TCP 50d app=wordpress,tier=mysql
#获取对应SELECTOR的pod使用率,找到最大那个写入文件中
kubectl top test -l 'app=wordpress,tier=mysql'
考点:获取service selector,kubectl top监控pod资源
参考:Tools for Monitoring Resources
创建一个Pod名称为nginx-app,镜像为nginx,并根据pod创建名为nginx-app的Service,type为NodePort
kubectl run nginx-app --image=nginx --restart=Never --port=80kubectl create svc nodeport nginx-app --tcp=80:80 --dry-run -o yaml > 9.yaml
#修改yaml,保证selector name=nginx-app vi 9.yaml
apiVersion: v1kind: Servicemetadata: creationTimestamp: null labels: app: nginx-app name: nginx-appspec: ports: - name: 80-80 port: 80 protocol: TCP targetPort: 80 selector:#注意要和pod对应 name: nginx-app type: NodePort
考点:Service
参考:publishing-services-service-types
创建一个nginx的Workload,保证其在每个节点上运行,注意不要覆盖节点原有的Tolerations
这道题直接复制文档的yaml太长了,由于damonSet的格式和Deployment格式差不多,我用旁门左道的方法 先创建Deploy,再修改,这样速度会快一点
#先创建一个deployment的yaml模板
kubectl run nginx --image=nginx --dry-run -o yaml > 10.yaml
#将yaml改成DaemonSet
$ vi 10.yaml
#修改apiVersion和kind#apiVersion: extensions/v1beta1#kind: DeploymentapiVersion:apps/v1kind: DaemonSetmetadata: creationTimestamp: null labels: run: nginx name: nginxspec:#去掉replicas# replicas: 1 selector: matchLabels: run: nginx strategy: {} template: metadata: creationTimestamp: null labels: run: nginx spec: containers: - image: nginx name: nginx resources: {}status: {}
考点:DaemonSet
参考:DaemonSet
将deployment为nginx-app的副本数从1变成4。
#方法1
kubectl scale --replicas=4 deployment nginx-app
#方法2,使用edit命令将replicas改成4
kubectl edit deploy nginx-app
考点:deployment的Scaling,搜索Scaling
参考:Scaling the application by increasing the replica count
创建nginx-app的deployment ,使用镜像为nginx:1.11.0-alpine ,修改镜像为1.11.3-alpine,并记录升级,再使用回滚,将镜像回滚至nginx:1.11.0-alpine
kubectl run nginx-app --image=nginx:1.11.0-alpinekubectl set image deployment nginx-app --image=nginx:1.11.3-alpinekubectl rollout undo deployment nginx-appkubectl rollout status -w deployment nginx-app
考点:资源的更新
参考:Kubectl Cheat Sheet:Updating Resources
根据已有的一个nginx的pod、创建名为nginx的svc、并使用nslookup查找出service dns记录,pod的dns记录并分别写入到指定的文件中
#创建一个服务
kubectl create svc nodeport nginx --tcp=80:80
#创建一个指定版本的busybox,用于执行nslookup
kubectl create -f exec -ti busybox -- nslookup nginx > 指定文件
#获取pod的ip地址
kubectl get pod nginx -o yaml
#将获取的pod ip地址使用nslookup查找dns记录
kubectl exec -ti busybox -- nslookup
考点:网络相关,DNS解析
参考:Debugging DNS Resolution
创建Secret 名为mysecret,内含有password字段,值为bob,然后 在pod1里 使用ENV进行调用,Pod2里使用Volume挂载在/data 下
#将密码值使用base64加密,记录在Notepad里
echo -n 'bob' | base64
14.secret.yaml
apiVersion: v1kind: Secretmetadata: name: mysecrettype: Opaquedata: password: Ym9i
14.pod1.yaml
apiVersion: v1kind: Podmetadata: name: pod1spec: containers: - name: mypod image: nginx volumeMounts: - name: mysecret mountPath: "/data" readOnly: true volumes: - name: mysecret secret: secretName: mysecret
14.pod2.yaml
apiVersion: v1kind: Podmetadata: name: pod2spec: containers: - name: mycontainer image: redis env: - name: SECRET_PASSWORD valueFrom: secretKeyRef: name: mysecret key: password
考点 Secret
参考:Secret
使node1节点不可调度,并重新分配该节点上的pod
#直接drain会出错,需要添加–ignore-daemonsets --delete-local-data参数
kubectl drain node node1 --ignore-daemonsets --delete-local-data
考点:节点调度、维护
参考:[Safely Drain a Node while Respecting Application SLOs]: (备份功能备份etcd(提供enpoints,ca、cert、key)
ETCDCTL_API=3 etcdctl --endpoints \--cacert=ca.pem --cert=cert.pem --key=key.pem \snapshot save snapshotdb
考点:etcd的集群的备份与恢复
参考:backing up an etcd cluster
给出一个失联节点的集群,排查节点故障,要保证改动是永久的。
#查看集群状态
kubectl get nodes
#查看故障节点信息
kubectl describe node node1
#Message显示kubelet无法访问(记不清了) #进入故障节点 ssh node1
#查看节点中的kubelet进程
ps -aux | grep kubelete
#没找到kubelet进程,查看kubelet服务状态
systemctl status kubelet.service
#kubelet服务没启动,启动服务并观察
systemctl start kubelet.service
#启动正常,enable服务
systemctl enable kubelet.service
#回到考试节点并查看状态
exitkubectl get nodes #正常
考点:故障排查
参考:Troubleshoot Clusters
18.给出一个集群,排查出集群的故障
这道题没空做完。kubectl get node显示connection refuse,估计是apiserver的故障。
考点:故障排查
参考:Troubleshoot Clusters
给出一个节点,完善kubelet配置文件,要求使用systemd配置kubelet
这道题没空做完,
给出一个集群,将节点node1添加到集群中,并使用TLS bootstrapping
这道题没空做完,花费时间比较长,可惜了。
考点:TLS Bootstrapping
参考:TLS Bootstrapping
创建一个pv,类型是hostPath,位于/data中,大小1G,模式ReadOnlyMany
apiVersion: v1kind: PersistentVolumemetadata: name: pvspec: capacity: storage: 1Gi accessModes: - ReadOnlyMany hostPath: path: /data
考点:创建PV 参考:persistent volumes
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~