k8s-cka考试题库

2023-05-16

个人博客:https://5mr.xyz

本次测试的所有问题都必须在指定的cluster配置环境中完成。为尽量减少切换,系统已对问题进行分组,同一cluster内的所有问题将连续显示。
file

开启TAB补全

做题前先配置k8s自动补齐功能,否则无法TAB补全命令:

  1. 登陆管理节点
  2. kubectl --help | grep bash,此步是为了找关键词completion
    file
  3. sudo vim /etc/profile
  4. 添加source <(kubectl completion bash)
    file
    5.保存退出,source /etc/profile

1.4% k8s

- 设置配置环境 kubectl config use-context k8s 
Context
- 为部署管道创建一个新的 ClusterRole 并将其绑定到范围为特定 namespace 的特定 ServiceAccount
  • 创建一个名字为 deployment-clusterrole 且仅允许创建以下资源类型的新ClusterRole:
    • Deployment
    • StatefulSet
    • DaemonSet
  • 在现有的 namespace app-team1 中创建有个名为 cicd-token 的新 ServiceAccount
  • 限 于 namespace app-team1 , 将 新 的 ClusterRole deployment-clusterrole 绑 定 到 新 的 ServiceAccount cicd-token。

解答:

1.kubectl create clusterrole deployment-clusterrole --verb=create --resource=Deployment,StatefulSet,DaemonSet
2.kubectl create serviceaccount cicd-token -n app-team1
3.kubectl create rolebinding xxx(随便起名字) --clusterrole=deployment-clusterrole --serviceaccount=cicd-token:app-team1 -n app-team1

2.4% ek8s

- 设置配置环境 kubectl config use-context ek8s 
- 将名为 ek8s-node-0 (vms25)的 node 设置为不可用,并重新调度该 node 上所有运行的 pods 

解答:

kubectl drain vms25.rhce.cc --ignore-daemonsets
file

3.7% mk8s

- 设置配置环境 kubectl config use-context mk8s 
- 现有的 kubernetes 集群正在运行的版本是 1.21.0。仅将主节点上的所有 kubernetes 控制平面 和节点组件升级到版本 1.21.1。
- 另外,在主节点上升级 kubelet 和 kubectl。 
[start-plane type="4"]确保在升级前 drain 主节点,并在升级后 uncordon 主节点。请不要升级工作节点,etcd,container管理器,CNI 插件,DNS服务或任何其他插件。[/start-plane]--etcd-upgrade=false 
kubeadm upgrade apply 1.21.1 --etcd-upgrade=false 

解答:

1.登陆官网k8s.io,可以右上角更换语言,点击Learn Kubernetes Basics
2.搜索upgrade
file
3.开始升级,步骤官方文档中都有步骤,步骤如下:

kubectl config use-context mk8s
kubectl get nodes
ssh vms28(28为mk8s的控制平面节点)
sudo su - (需用root用户执行下方命令)

apt-get update && \ apt-get install -y --allow-change-held-packages kubeadm=1.21.1-00 (安装kubeadm包)

kubeadm upgrade apply v1.21.1 –etcd-upgrade=false(题中提示etcd不被升级,所以加后面的参数)
kubectl drain vms28.rhce.cc --ignore-daemonsets (升级kubelet和kubectl前腾空节点,官方文档中流程都有,看着修改就好)

apt-get update && \ apt-get install -y --allow-change-held-packages kubelet=1.21.1-00 kubectl=1.21.1-00(安装kubelet和kubectl包)

systemctl daemon-reload
systemctl restart kubelet
kubectl uncordon vms28.rhce.cc

4.7%

  • 此项目无需更改配置环境
  • 首 先 为 运 行 在 https://127.0.0.1:2379 上 的 现 有 etcd 实 例 创 建 快 照 并 将 快 照 保 存 到 /srv/data/etcd-snapshot.db。
  • 为给定实例创建快照预计能在几秒钟内完成。如果该操作似乎挂起,则命令可能有问题。用 ctrl+c 来取消操作,然后重试。
  • 然后还原位于/srv/data/etcd-snapshot-previous.db 的现有先前快照.

提供了一下 TLS 证书和密钥,以通过 etcdctl 连接到服务器。 CA 证书:/opt/KUIN00601/ca.crt 客户端证书: /opt/KUIN00601/etcd-client.crt 客户端密钥:/opt/KUIN00601/etcd-client.key

解答:

使用root账户操作

etcdctl –help 查看是否有snapshot命令,有是版本3无为版本2

若是2.则手动导入3

export ETCDCTL_API=3
不知道命令怎么写可以etcdctl snapshot save --help
主要三个参数为:-–cacert,–cert,–key

1.保存etcd实例快照:

考试环境:

#etcdctl snapshot save -–cacert=”/opt/KUIN00601/ca.crt” --cert=” /opt/KUIN00601/etcd-client.crt” --key=”/opt/KUIN00601/etcd-client.key” -- /srv/data/etcd-snapshot.db

练习环境:

#etcdctl snapshot save /srv/data/etcd-snapshot.db

2.还原快照

考试环境:

#etcdctl snapshot restore –cacert=”/opt/KUIN00601/ca.crt” --cert=” /opt/KUIN00601/etcd-client.crt” --key=”/opt/KUIN00601/etcd-client.key” /srv/data/etcd-snapshot.db

练习环境:

#etcdctl snapshot restore /srv/data/etcd-snapshot.db

5.7% k8s

  • 设置配置环境 kubectl config use-context k8s
  • 在 internal 命名空间创建一个名为 allow-port-from-namespace 的确保新的 NetworkPolicy 允 许 namespace internal 中的 Pods 来连接到 namespace big-corp 中的端口 9200。
  • 确保新的 NetworkPolicy:
  • 不允许对没有在监听端口 9200 的 pods 访问
  • 不允许不来自 namespace internal 的 pods 的访问

解答:

1.先创建题中的命名空间(Namespace)

kubectl configuse-context k8s
kubectl get namespace
kubectl create namespace internal
kubectl create namespace big-corp
kubectl label namespace big-corp name=big-corp

2.打开官网,搜索ingress或egress或networkpolicy,然后第一个网络策略
file
file
3.复制上方yaml代码,新建yaml文件,例如networkpolicy.yaml,名字随意起
4.将复制的代码按照题意改为下图所示:
file

kubectl apply -f networkpolicy.yaml
kubectl get networkpolicies.networking.k8s.io -n internal

file

6.7% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 请重新配置现有的部署 front-end 以及添加名为 http 的端口规范来公开现有容器 nginx 的端 口 80/tcp。
  • 创建一个名为 front-end-svc 的新服务,以公开容器端口 http。 配置此服务,以通过在排定的节点上的 NodePort 来公开各个 pods。

解答:

kubectl config use-context k8s
kubectl get deployments.apps
kubectl edit deployments.apps front-end (edit编辑时只能使用空格,不要TAB否则保存不了)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Q0idHrK5-1645525611665)(https://s2.loli.net/2022/02/18/4Xlqp7GiE1NwtyB.png)]

ports:
- name: http
  containePort: 80
  protocol: TCP

创建front-end-svc服务:
kubectl expose –-name=front-end-svc deployment front-end -–port=80 –-target-port=80 –-type=NodePort

7.7% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 如下创建一个新的 nginx ingress 资源:
  • 名称:pong
  • namespace: ing-internal
  • 使用服务端口 5678 在路径/hello 上公开服务 hello
  • 可以使用一下命令检查服务 hello 的可用性,该命令返回 hello: curl -kL < INTERNAL_IP>/hello/

解答:

1.kubectl config use-context k8s
2.打开官方文档,搜索ingress,选择第一个结果即可,进入后复制yaml模板并新建一个yaml文件
3.vim ingress.yaml

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dAGmkN0Q-1645525611666)(https://s2.loli.net/2022/02/21/JO3p5r6iWqzjvXL.png)]

4.kubectl apply -f 7-ing.yaml
5.kubectl get ing -n ing-internal 

8.4% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 将 deployment 从 webserver 扩展至 6pods

解答:

kubectl config use-context k8s
kubectl get deploy
kubectl scale deployment webserver –-replicas=6
kubectl get deploy

9.4% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 按如下要求调度一个 pod:
  • 名称:nginx-kusc00401
  • image: nginx
  • Node selector: disk=ssd

解答:

kubectl run nginx-kusc00401 --image=nginx --image-pull-policy=IfNotPresent --dry-run=client -o yaml > 9-pod.yaml
加入如下标红代码

file

kubectl apply -f 9-pod.yaml
kubectl get pods

10.4% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 检查有多少个 worker nodes 已准备就绪(不包括被打上 Taint: NoSchedule 的节点),并将数 量写入/opt/KUSC00402/kusc00402.txt

解答:

Kubectl get nodes
查看节点是否有污点
kubectl describe nodes [vms22.rhce.cc](http://vms22.rhce.cc) | grep Taint
kubectl describe nodes [vms23.rhce.cc](http://vms23.rhce.cc) | grep Taint
echo 1 > /opt/KUSC00402/kusc00402.txt

file

11.4% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 创建一个名字为kucc4的pod,在pod里面分别为以下每个images单独运行一个app container (可能会有 1-4 个 images):
  • nginx+redis+memcached+consul

解答:

kubectl run kucc4 1–image=nginx –1image-pull-policy=IfNotPresent –1dry-run=client -o yaml > 11-pod.yaml
vim 11-pod.yaml(将图中标红项复制3次并修改pod名字即可)

file

kubectl apply -f 11-pod.yaml
kubectl get pod

12.4% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 创建名为 app-data 的 persistent volume,容量为 1Gi,访问模式为 ReadWriteMany。volume 类型为 hostPath,位于/srv/app-data

解答:

1.官方文档中搜索persistent volume,第一个案例即可
file
2.vim 12-pv.yaml,按照题意修改
file
3.kubectl apply -f 12-pv.yaml
4.kubectl get pv

13.7% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 创建一个新的 PersistentVolumeClaim:
  • 名称:pvvolume
  • class:csi-hostpath-sc
  • 容量:10Mi
  • 创建一个新的 pod,此 pod 将作为 volume 挂载到PersistentVolumeClaim:
  • 名称:web-server
  • image: nginx
  • 挂载路径: /usr/share/nginx/html
  • 配置新的 pod,以对 volume 具有 ReadWriteOnce 权限。
  • 最后,使用 kubectl edit 或者 kubectl patch 将 PersistentVolumeClaim 的容量扩展为 70Mi,并 记录此次更改。

解答:

kubectl config use-context k8s
继续在上题中的官方文档中找到下方案例:
file

vim 13-pvc.yaml,讲案例复制,注意更改标红项,其他项删除(此步目的:创建新的 PersistentVolumeClaim)

file
kubectl apply -f 13-pvc.yaml
继续在上题的官方文档中下滑找到下方案例:
file

vim 13-pvc-pod.yaml,将案例复制(此步目的:创建一个新的 pod,此 pod并挂载到PersistentVolumeClaim)

file
kubectl apply -f 13-pvc-pod.yaml
file

kubectl edit pvc pvvolume –-record,将10Mi改为70Mi(–record目的为记录此次更改,不加–record的话第三小题没有分数)

file

14.5% k8s √

  • 设置配置环境 kubectl config use-context k8s
  • 监控 pod foo 的日志并:
    • 提取与错误 unable-to-access-website 相对应的日志行
    • 将这些日志行写入到/opt/KUTR00101/foo

解答:

$ kubectl config use-context k8s
$ kubectl logs foo | grpe unable-to-access-website > /opt/KUTR00101/foo

15.7% k8s

  • 设置配置环境 kubectl config use-context k8s
    • 在不更改其现有容器的情况下,需要将一个现有的 pod 集成到 kubernetes 的内置日志记录 体系结构中(例如 kubectl logs)。添加 streamimg sidecar 容器是实现此要求的一种好方法。
    • 将一个 busybox sidecar 容器添加到现有的 pod legacy-app。新的 sidecar 容器必须运行一下命令:
      /bin/sh -c tail -n+1 -f /var/log/legacy-app.log
  • 使用名为 logs 的 volume mount 来让文件/var/log/legacy-app.log 可用于 sidecar 容器。
    不要更改现有容器。不要修改日志文件的路径,两个容器必须通过/var/log/legacy-app.log 来访问该文件

解答:

kubectl config use-context k8s
kubectl get pod legacy-app -o yaml > 15-pod.yaml
vim 15-pod.yaml
1.添加pod及vomuleMount挂载点
file
2.添加volumes
file
3.修改挂载目录及名称
file
4.kubectl apply -f 15-pod.yaml
5.删除legacy-app,否则再运行yaml时会提示legacy-app已存在
kubectl delete pod legacy-app -–force
file

16.5% k8s√

  • 设置配置环境 kubectl config use-context k8s
  • 通过 pod label name=cpu-user,找到运行时占用大量 CPU 的 pod,并将占用 CPU 最高的 pod 名称写入到文件/opt/KUTR000401/KUTR00401.txt(已存在)

解答:

kubectl top pods -l name=cpu-user
echo “占比最高的机器名” > /opt/KUTR000401/KUTR00401.txt

17.13% ek8s

  • 设置配置环境 kubectl config use-context ek8s
  • 名为wk8s-node-0(练习环境使用 vms26.rhce.cc)的 kubernetes worker node 处于 Not Ready状态。调查发生这种情况的原因,并采取相应措施将 node 恢复为Ready状态,确保所做的任何更改永久生效。
  • 可使用以下命令通过ssh连接到故障node:
    • ssh wk8s-node-0 (vms26.rhce.cc)
  • 可使用以下命令在该node上获取更高权限:
    • sudo -i

解答:

kubectl get nodes
ssh vms26.rhce.cc
sudo -i
systemctl start kubelet ; systemctl enable kubectl
Exit退出
$kubectl get nodes
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

k8s-cka考试题库 的相关文章

  • centos 安装k8s

    第一步 每台机子都做 关闭防火墙 systemctl stop firewalld systemctl disable firewalld 第二步 每台机子都做 永久关闭selinux sed i s enforcing disabled
  • (5)minikube玩转k8s集群之访问pod里的服务

    配套视频教程 1 Minikube介绍 简单说 创建k8s集群很麻烦 minikube可以让我们快速搭建一个k8s集群用于学习 Minikube 是一种可以让您在本地轻松运行 Kubernetes 的工具 Minikube 在笔记本电脑上的
  • K8s中的Deployment

    Deployment是kubernetes在1 2版本中引入的新概念 用于更好的解决Pod的编排问题 为此 Deployment在内部使用了ReplicaSet来实现目的 我们可以把Deployment理解为ReplicaSet的一次升 级
  • K8S 工作负载(一)

    K8S 工作负载 1 Pod Pod 是 Kubernetes 中创建 管理和调度的最小计算单元 用户可以在 K8S 中通过调用 Pod API生成一个 Pod 让 K8S 对其进行调度 Pod 是一组 一个或多个 容器 这些容器共享存储
  • kubeadm常用

    kubeadm常用 配置kubeadm自动补全 初始化一个master节点 导出kubeadm默认配置文件 将node节点加入集群 生成node配置 升级k8s版本 kubeadm升级node 维护或下线node节点 管理kubeadm j
  • 基于hostpath的k8s pod日志持久化

    基于hostpath的k8s pod日志持久化 前置条件 step1 修改服务的yaml文件 step2 推送日志到minio版保存 step3 优化 附加 简单了解 前置条件 考虑到pod的多副本 但同时需要将日志集中收集起来 所以采用h
  • 局域网使用kubeadm安装高可用k8s集群

    主机列表 ip 主机名 节点 cpu 内存 192 168 23 100 k8smaster01 master 2核 2G 192 168 23 101 k8smaster02 node 2核 2G 192 168 23 102 k8sma
  • Liveness、Readiness 和 Startup Probes

    liveness apiVersion v1 kind Pod metadata labels test liveness name liveness exec spec containers name liveness image k8s
  • k8s删除Terminating 的命名空间等资源

    背景 在k8s中执行删除命名空间后 命名空间没有被删除而是处于Terminating状态 此时再执行删除仍然删除不掉 解决 将要删除的命名空间信息导出为json数据 下面traefik v2 替换成你需要删除的命名空间名称 kubectl
  • docker的联合文件系统(UnionFS)

    docker最大的贡献就是定义了容器镜像的分层的存储格式 docker镜像技术的基础是联合文件系统 UnionFS 其文件系统是分层的 这样既可以充分利用共享层 又可以减少存储空间占用 联合挂载系统的工作原理 读 如果文件在upperdir
  • k8s-3:集群的三种网络

    k8s集群一共有三种网络模型 Node IP Node节点的IP地址 即物理网卡的IP地址 Pod IP Pod的IP地址 即docker容器的IP地址 此为虚拟IP地址 Cluster IP Service的IP地址 此为虚拟IP地址 N
  • 初学容器:Docker

    1 环境初始化 1 1 安装git vim curl等常用工具 sudo apt update sudo apt install y git vim curl jq 1 2 ubuntu是不支持远程连接的 需要安装ssh服务 sudo ap
  • k8s部署之ETCD集群

    k8s部署之ETCD集群 1 etcd下载 etcd下载地址 https github com coreos etcd releases 从github etcd的发布页面选取相应的版本用 wget url 来下载 如 wget https
  • 如何解决K8S节点显示NotReady

    文章目录 kubernetes节点断电重启 kubernetes节点断电重启 背景 运行的好好的k8s集群 某天断电 发现一个节点炸了 显示NotReady kubectl get nodes 那么如何查找问题呢 我们用它 journalc
  • kubectl常用命令

    alias k kubectl alias kc k create f alias kgp k get pods alias kdp k describe pods alias kdep k delete pods alias kl k l
  • namespace命令空间

    目录 1 解决什么问题 2 基本介绍 2 1 定义 2 2 应用场景 3 使用案例 4 资源配额 5 标签 5 1 定义 5 2 pod资源打标签 5 3 查看标签 1 解决什么问题 命令空间类似于C 中的命名空间 当用户数量较多的集群 才
  • kubernetes报错Error from server (AlreadyExists): error when creating "kubernetes-dashboard.yaml": serv

    在执行 kubectl apply f kubernetes dashboard yaml 报错 Error from server AlreadyExists error when creating kubernetes dashboar
  • kubeadm集群化部署多master节点(生产环境适用)

    一 背景介绍 k8s通过master集中式管理worknode的容器编排系统 而在生产环境为了维护高可用性 master的地位起到举无轻重的作用 一旦master节点失守 则会导致整个集群服务不可用 因此配置多master集群在生产环境非常
  • flannel和calico区别

    k8s网络模式 Flannel数据包在主机间转发是由backend实现的 目前已经支持UDP VxLAN host gw等多种模式 VxLAN 使用内核中的VxLAN模块进行封装报文 也是flannel推荐的方式 host gw虽然VXLA
  • flannel和calico区别

    k8s网络模式 Flannel数据包在主机间转发是由backend实现的 目前已经支持UDP VxLAN host gw等多种模式 VxLAN 使用内核中的VxLAN模块进行封装报文 也是flannel推荐的方式 host gw虽然VXLA

随机推荐

  • 【Ubuntu】使用x11vnc进行远程桌面连接

    1 安装x11vnc sudo apt get update sudo apt get install x11vnc 2 生成密码 x11vnc storepasswd 3 开启服务 x11vnc auth guess once loop
  • 在linux下创建一个可运行shell脚本

    1 touch hello sh 2 vim hello sh 键入i 插入 bin sh echo hello world 键入 esc wq 3 chmod 700 hello sh 4 执行 hello sh
  • Linux 网络唤醒

    网络唤醒流程 1 BIOS下使能wakeup on online 2 配置ip为同一网段 S ip 61 192 168 1 11 记录对应网卡的MAC地址 假设是00 01 02 03 04 05 3 检查网卡是否启动wakeonline
  • 如何学习算法?

    今天在群里刚好看到有人在讨论算法的问题 xff0c 刚好自己曾经也有一个算法大神的梦 xff0c 来说说自己对算法的理解 算法怎么学 xff1f 什么样程度才算把算法学透 xff1f 算法学会了有什么用 xff1f 算法的学习是非常重要的
  • Flask框架搭建

    Flask框架搭建 创建一个Flask框架 1 打开pycharm专业版 xff0c 创建一个flask框架项目 xff0c 如图 xff1a 这里的虚拟环境是创建项目之前已经创建好的虚拟环境 2 点击创建按钮 xff0c 跳转到项目主界面
  • VS2017 C++error "cout": 不是"std"的成员,或者cout”: 未声明的标识符

    include pch h include iostream 原因是两个顺序写反了
  • STM32f103***烧写程序后使用STLINK V2无法连接芯片

    STM32f103 烧写程序后使用STLINK V2无法连接芯片 解决办法 xff1a 可以采用先按住RESET键点击下载后迅速松开RESET键就能下载程序了
  • VNCview的复制粘贴剪贴板共享

    autocutsel命令可以实现在CTRL 43 C和CTRL 43 V的复制粘贴 鼠标copy和paste也是可以的 autocutsel f 可以放入后台 更方便 安装 apt install autocutsel
  • 学习笔记tasksel(失败)-- 换用VNC完成

    开始学习时在云上申请了个服务器 xff0c 创建docker后 使用了一个docker pull ubuntu后准备装个图形界面 xff0c 作为代码阅读的环境 xff0c 因此使用tasksel来进行图形化界面安装 学习总结 xff1a
  • Centos7 k8s v1.5.2二进制部署安装-网络插件Flannel的安装

    一 安装部署网络插件 1 概念 kubeenetes设计了网络模型 xff0c 但是却将她得实现交给了网络插件 xff0c CNI网络插件最主要得功能就是实现POD资源能够跨宿主机进行通信 常见得CNI网络插件 xff1a Flannel
  • linux系统中重启网卡后网络不通(NetworkManager篇)

    个人博客 xff1a https 5mr xyz 一 故障现象 RHEL7 6系统 xff0c 使用nmcli绑定双网卡后 xff0c 再使用以下命令重启network服务后主机网络异常 xff0c 导致无法通过ssh远程登录系统 syst
  • Windows系统设置多用户同时远程登录

    个人博客 xff1a https 5mr xyz 一 在键盘上按Win 43 R键 也可以在开始菜单右键然后选择运行 xff0c 在运行的输入框里面输入 34 gpedit msc 34 命令 然后点击确定 二 在 计算机组策略 中依次展开
  • 在shell中把ls的输出存进一个数组变量中

    将ls的输出存到filelist数组中 xff1a c 61 0 for file in 96 ls 96 do filelist c 61 file c 43 43 done 或者 set a myfiles index 61 0 for
  • linux系统操作系统网卡漂移解决方案及问题原因

    个人博客 xff1a https 5mr xyz 一 问题描述 公司有100 150台服务器安装RHEL7 4 amp 中标麒麟7 4系统 xff0c 为方便编辑配置网卡 xff0c 使用脚本方式配置为biosname 61 0 xff0c
  • 内核报错kernel:NMI watchdog: BUG: soft lockup - CPU#1

    个人博客 xff1a https 5mr xyz 1 现象描述 系统管理员电话通知 xff0c 描述为一台服务器突然无法ssh连接 xff0c 登录服务器带外IP地址并进入远程控制台界面后 xff0c 提示Authentication er
  • Linux ls 命令提示 Input/output error

    个人博客 xff1a https 5mr xyz 一 问题描述 某一台跑批服务器硬盘无法正常读写 xff0c 提示input output error xff0c 服务器每天均需使用 xff0c 询问情况后发现服务器首先为硬盘故障 xff0
  • storcli工具的使用方法

    个人博客 xff1a https 5mr xyz 常用命令 xff1a xff08 c代表Controller xff0c e代表Enclosure xff0c s代表Slot或PD xff0c v代表ld xff09 opt MegaRA
  • xshell 连接报错 Disconnected from remote host

    个人博客 xff1a https 5mr xyz xshell连接报错 解决方法 1 登陆带外管理口远程控制台 2 查看 Var empty的属主属组和权限 xff0c empty权限需为755 3 Chmod 777 R var后导致ss
  • IPMI管理工具使用方法

    个人博客 xff1a https 5mr xyz 前言 最近需要对多台服务进行控制 xff0c 通过服务器的 BMC 控制台去控制太麻烦 xff0c 服务器刚好支持 IPMI 协议 xff0c 这里记录下常用的几条命令备忘 什么是 IPMI
  • k8s-cka考试题库

    个人博客 xff1a https 5mr xyz 本次测试的所有问题都必须在指定的cluster配置环境中完成 为尽量减少切换 xff0c 系统已对问题进行分组 xff0c 同一cluster内的所有问题将连续显示 开启TAB补全 做题前先