yarn使用cgroup隔离cpu资源

网友投稿 383 2022-11-23

yarn使用cgroup隔离cpu资源

yarn默认只管理内存资源,虽然也可以申请cpu资源,但是在没有cpu资源隔离的情况下效果并不是太好.在集群规模大,任务多时资源竞争的问题尤为严重.还好yarn提供的LinuxContainerExecutor可以通过cgroup来隔离cpu资源

cgroupcgroup是系统提供的资源隔离功能,可以隔离系统的多种类型的资源,yarn只用来隔离cpu资源

安装cgroup默认系统已经安装了cgroup了,如果没有安装可以通过命令安装CentOS 6

yum install -y libcgroupCentOS 7

yum install -y libcgroup-tools然后通过命令启动CentOS 6

/etc/init.d/cgconfig startCentOS 7

systemctl start cgconfig.service查看/cgroup目录,可以看到里面已经创建了一些目录,这些目录就是可以隔离的资源

drwxr-xr-x 2 root root 0 3月  19 20:56 blkiodrwxr-xr-x 3 root root 0 3月  19 20:56 cpudrwxr-xr-x 2 root root 0 3月  19 20:56 cpuacctdrwxr-xr-x 2 root root 0 3月  19 20:56 cpusetdrwxr-xr-x 2 root root 0 3月  19 20:56 devicesdrwxr-xr-x 2 root root 0 3月  19 20:56 freezerdrwxr-xr-x 2 root root 0 3月  19 20:56 memorydrwxr-xr-x 2 root root 0 3月  19 20:56 net_cls如果目录没有创建可以执行

cd /mkdir cgroupmount -t tmpfs cgroup_root ./cgroupmkdir cgroup/cpusetmount -t cgroup -ocpuset cpuset ./cgroup/cpuset/mkdir cgroup/cpumount -t cgroup -ocpu cpu ./cgroup/cpu/mkdir cgroup/memorymount -t cgroup -omemory memory ./cgroup/memory/通过cgroup隔离cpu资源的步骤为

在cpu目录创建分组cgroup以组为单位隔离资源,同一个组可以使用的资源相同一个组在cgroup里面体现为一个文件夹,创建分组直接使用mkdir命令即可.组下面还可以创建下级组.最终可以形成一个树形结构来完成复杂的资源隔离方案.每当创建了一个组,系统会自动在目录立即创建一些文件,资源控制主要就是通过配置这些文件来完成--w--w--w- 1 root root 0 3月  19 21:09 cgroup.event_control-rw-r--r-- 1 root root 0 3月  19 21:09 cgroup.procs-rw-r--r-- 1 root root 0 3月  19 21:09 cpu.cfs_period_us-rw-r--r-- 1 root root 0 3月  19 21:09 cpu.cfs_quota_us-rw-r--r-- 1 root root 0 3月  19 21:09 cpu.rt_period_us-rw-r--r-- 1 root root 0 3月  19 21:09 cpu.rt_runtime_us-rw-r--r-- 1 root root 0 3月  19 21:09 cpu.shares-r--r--r-- 1 root root 0 3月  19 21:09 cpu.stat-rw-r--r-- 1 root root 0 3月  19 21:09 notify_on_release-rw-r--r-- 1 root root 0 3月  19 21:09 tasksyarn默认使用hadoop-yarn组作为最上层,任务运行时yarn会为每个container在hadoop-yarn里面创建一个组yarn主要使用cpu.cfs_quota_us cpu.cfs_period_us cpu.shares3个文件yarn使用cgroup的两种方式来控制cpu资源分配

严格按核数隔离资源可使用核数 = cpu.cfs_quota_us/cpu.cfs_period_us在yarn中cpu.cfs_quota_us被直接设置为1000000(这个参数可以设置的最大值)然后根据任务申请的core来计算出cpu.cfs_period_us按比例隔离资源按每个分组里面cpu.shares的比率来分配cpu比如A B C三个分组,cpu.shares分别设置为1024 1024 2048,那么他们可以使用的cpu比率为1:1:2将进程id添加到指定组的tasks文件创建完分组后只需要将要限制的进程的id写入tasks文件即可,如果需要解除限制,在tasks文件删除即可yarn配置启动cgroup需要配置几个配置文件

etc/hadoop/yarn-site.xml配置可以参考配置这些配置大部分都是固定配置

    yarn.nodemanager.container-executor.class  org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor    yarn.nodemanager.linux-container-executor.resources-handler.class    org.apache.hadoop.yarn.server.nodemanager.util.CgroupsLCEResourcesHandler    yarn使用的cgroup组,默认为/hadoop-yarn    yarn.nodemanager.linux-container-executor.cgroups.hierarchy    /hadoop-yarn    是否自动挂载cgroup    yarn.nodemanager.linux-container-executor.cgroups.mount    true    cgroup挂载目录, /sys/fs/cgroup 或者是 /cgroup,目录和系统有关    yarn.nodemanager.linux-container-executor.cgroups.mount-path    /cgroup    yarn.nodemanager.linux-container-executor.group    hadoop    配置nodemanager使用多少物理cpu资源,比如24核服务器配置90的话,最近使用21.6核    yarn.nodemanager.resource.percentage-physical-cpu-limit    90    是控制是否严格限制cpu,即按任务申请的core限制,还是非严格限制,即按core的比率限制    yarn.nodemanager.linux-container-executor.cgroups.strict-resource-usage    true    非安全模式将会以这里设置的用户运行container,比如配置hadoop用户则以hadoop运行container    yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user    hadoopetc/hadoop/container-executor.cfg配置这个配置文件每项都需要填,要不然会报错

yarn.nodemanager.linux-container-executor.group=hadoopbanned.users=rootmin.user.id=1000allowed.system.users=hadoop权限设置在配置中文件的权限有特殊要求

chown root:hadoop bin/container-executorchmod 6050 bin/container-executor系统还要求etc/hadoop/container-executor.cfg 的所有父目录(一直到/ 目录) owner 都为 root这个路径是默认${HADOOP_HOME}/etc/hadoop/container-executor.cfg,如果不方便修改所有父级目录为root权限,可以重新编译代码到其他目录,比如/etc/hadoop/目录

mvn clean package -Dcontainer-executor.conf.dir=/etc/hadoop/ -DskipTests -Pnative配置好以后检测是否配置成功

./bin/container-executor --checksetup如果没有任何输出表示配置成功如果一切顺利就可以启动集群了

测试cgroup可以运行测试脚本测试系统

./bin/spark-submit   \--class org.apache.spark.examples.SparkPi   \--master yarn-cluster   \--deploy-mode cluster   \--num-executors 5 \--executor-cores 3 \--executor-memory 4G \--driver-memory 4G \--driver-cores 2 \lib/spark-examples-1.6.0-hadoop2.6.0.jar   10000```查看系统是否生效只能登录到服务器查看通过`top`查看信息![](/cgroup/hadoop-yarn/`--w--w--w- 1 root root 0 3月 17 15:44 cgroup.event_control-rw-r--r-- 1 root root 0 3月 17 15:44 cgroup.procsdrwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000011drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000026drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000051drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000076drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000101drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000123drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000136drwxr-xr-x 2 root root 0 3月 17 16:06 container_1489736876249_0003_01_000155drwxr-xr-x 2 root root 0 3月 17 16:30 container_1489736876249_0004_01_000008-rw-r--r-- 1 root root 0 3月 17 15:47 cpu.cfs_period_us-rw-r--r-- 1 root root 0 3月 17 15:47 cpu.cfs_quota_us-rw-r--r-- 1 root root 0 3月 17 15:44 cpu.rt_period_us-rw-r--r-- 1 root root 0 3月 17 15:44 cpu.rt_runtime_us-rw-r--r-- 1 root root 0 3月 17 15:44 cpu.shares-r--r--r-- 1 root root 0 3月 17 15:44 cpu.stat-rw-r--r-- 1 root root 0 3月 17 15:44 notify_on_release-rw-r--r-- 1 root root 0 3月 17 15:44 tasks

查看`container_*`目录下 `cpu.cfs_period_us`,计算` cpu.cfs_quota_us/cpu.cfs_period_us`即可知道分配的核数[root@- ~]# cat /cgroup/cpu/hadoop-yarn/container*/cpu.cfs_period_us462962462962462962462962462962462962462962462962308641

## 问题处理配置的过程中免不了会碰上一些问题,以下是我碰到的问题### spark任务申请了core,`node manager`分配不正确,都是分配1个核这个是由于目前使用的`capacity scheduler`的资源计算方式只考虑了内存,没有考虑CPU这种方式会导致资源使用情况统计不准确,比如一个saprk程序启动命令资源参数如下--num-executors 1 --executor-cores 3 --executor-memory 4G --driver-memory 4G --driver-cores 1

DefaultResourceCalculator  统计占2核DominantResourceCalculator 统计占4核修改配置文件即可解决yarn.scheduler.capacity.resource-calculatororg.apache.hadoop.yarn.util.resource.DominantResourceCalculatorThe ResourceCalculator implementation to be used to compareResources in the scheduler.The default i.e. DefaultResourceCalculator only uses Memory whileDominantResourceCalculator uses dominant-resource to comparemulti-dimensional resources such as Memory, CPU etc.

### container-executor运行时报缺少GLIBC_2.14库container-executor: /lib64/libc.so.6: version `GLIBC_2.14' not found (required by bin/container-executor)

这个和系统版本有关,只能通过重新编译`container-executor`来解决mvn clean package -Dcontainer-executor.conf.dir=/etc/hadoop/ -DskipTests -Pnative

### centos 7系统container启动报错,不能写入/cgroup/cpu这个是yarn在centos 7下的一个bug,hadoop 2.8以后的版本才会解决这个bug主要是因为centos 7下cgroup的目录和centos 6不一致导致,centos 7 cpu目录合并成`cpu,cpuacct`, 这个`,`导致的错误,需要打补丁后编译 String findControllerInMtab(String controller,Map> entries) {for (Entry> e : entries.entrySet()) {// if (e.getValue().contains(controller))// return e.getKey();

if (e.getValue().contains(controller)) {    String controllerKey = e.getKey();    // In Redhat7, the controller is called "/sys/fs/cgroup/cpu,cpuacct"    controllerKey = controllerKey.replace("cpu,cpuacct", "cpu");    if (new File(controllerKey).exists()) {      return controllerKey;    }  }}

return null;}

## 升级的风险由于改变了资源的隔离方式,升级可能有几个方面的影响### 任务资源分配问题升级cgroup后单个任务如果以前资源分配不合理可能会出现计算延时情况,出现资源问题时需要调整任务资源在集群规模小的时候可能没有资源可以调整,那么可以修改为非严格模式,非严格模式不能按配置限制资源,只能保证资源不被少数进程全部占用yarn.nodemanager.linux-container-executor.cgroups.strict-resource-usagefalse

### spark driver资源问题spark任务的driver在集群模式`deploy-mode cluster `时,如果没有配置`driver-cores`的话默认分配1核,1核在任务规模大时有可能资源会紧张.采用`deploy-mode client `模式的不受cgroup限制

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:基于LDA的电商评论主题抽取
下一篇:罗德与施瓦茨在MWC21上展示应对5G NR设备测试挑战的全面解决方案
相关文章

 发表评论

暂时没有评论,来抢沙发吧~