是否可以强制 SLURM 只能访问作业的运行文件夹而不更改任何其他文件?

2023-12-08

我观察到,当我运行 SLURM 作业时,它可以在其他文件夹路径上创建文件,也可以删除它们。通过 SLURM 作业,他们可以访问其他文件夹/文件并对其进行更改,这似乎很危险。

$ sbatch run.sh

run.sh:

#!/bin/bash
#SBATCH -o slurm.out        # STDOUT
#SBATCH -e slurm.err        # STDERR
    
echo hello > ~/completed.txt
rm ~/completed.txt

是否可以强制 SLURM 只能访问其自己的运行文件夹而不能访问其他文件夹?


文件访问是通过 UNIX 权限控制的,因此作业只能写入提交用户有权写入的位置。大多数情况下,一项作业需要在不同文件系统上的多个不同目录(用于配置文件和结果的主 NFS、用于中间数据和输入数据的临时并行文件系统等)进行读写,因此 Slurm 不应限制该作业在提交目录中。

如果您想确保您的作业无法在特定目录之外写入,您可以使用chroot命令,但这似乎有点奇怪,并且比 UNIX 权限更难管理。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

是否可以强制 SLURM 只能访问作业的运行文件夹而不更改任何其他文件? 的相关文章

  • error while loading shared libraries: libhwloc.so.5: cannot open shared object file: No such file or

    部署Slurm的过程中 计算节点执行 slurmd C 命令后 报错 root node2 slurmd C slurmd error while loading shared libraries libhwloc so 5 cannot
  • 如何让SBATCH通过电子邮件发送标准输出?

    我想让slurm系统发送myprogram计算完成后通过电子邮件输出 所以我写了SBATCH如下 bin bash l SBATCH J MyModel SBATCH n 1 Number of cores SBATCH t 1 00 00
  • 如何配置slurm通知邮件的内容?

    当某些类型的事件发生时 Slurm 可以使用以下选项通过电子邮件通知用户 mail type and mail user 我以这种方式收到的电子邮件包含一个空正文和一个如下所示的标题 SLURM Job id 9228 名称 toto 已结
  • 运行多个工作守护进程 SLURM

    我想在一台机器上运行多个工作守护进程 按照达米安弗朗索瓦的回答关于slurm 集群的最少计算机数量是多少可以办到 问题是目前我只能在一台机器上执行 1 个工作守护进程 例如 当我跑步时 sudo slurmd N linux1 cDvv s
  • slurm 集群的最少计算机数量是多少

    我想设置一个SLURM集群 我至少需要多少台机器 我可以从两台机器开始 一台仅是客户端 一台既是客户端又是服务器 吗 正如 Carles 所写 如果您愿意 您可以只使用一台计算机 同时运行控制器 slurmctld 和工人 slurmd 守
  • 访问数组作业的任务 ID

    我通常使用类似以下内容来提交数组作业 bin bash sbatch lt
  • 多分区作业的批处理脚本?

    我正在开发一个项目 该项目在大型计算集群的两个不同分区上运行程序 我想使用批处理脚本来运行它 但搜索后 仍然不清楚是否 如何从单个批处理脚本中在两个不同的分区上分配和运行程序 这就是我想做的事情 bin bash SBATCH partit
  • SLURM:如何查看已完成的作业全名?

    sacct n例如返回所有作业名称被修剪的 QmefdYEri 问 如何查看作业的完整名称 而不是其精简版本 sacct n 1194 run sh debug root 1 COMPLETED 0 0 1194 batch batch r
  • 使用多个节点运行 slurm 脚本,使用 1 个任务启动作业步骤

    我正在尝试使用批处理脚本启动大量作业步骤 不同的步骤可以是完全不同的程序 并且每个步骤都需要一个 CPU 首先我尝试使用 multi prog论证srun 不幸的是 当以这种方式使用分配给我的工作的所有 CPU 时 性能会大幅下降 运行时间
  • R 并行作业挂起

    我正在运行网站上写的 Snow test R 脚本 https hpcf umbc edu other packages how to run r programs on maya https hpcf umbc edu other pac
  • 如何使用 SLURM 通过 CUDA 在 GPU 网格上运行多个作业

    我一直致力于使用 CUDA 加快作业的处理时间 通常这会相当简单 但是我遇到了一个相当有趣的问题 我们使用 slurm 来安排我们的作业 通过添加 CUDA 代码并启用它的编译 它使单个作业时间减少了一半 当查看 GPU 上的负载时就会出现
  • 如何获取 SLURM 数组作业中失败和已完成作业的计数

    我正在使用 slurm 运行多个数组作业 对于给定的数组作业 ID 假设为 885881 我想列出失败作业和已完成作业的计数 像这样的事情 Input
  • Ray on slurm - 初始化问题

    我写这篇文章是因为自从我使用 slurm 以来 我一直无法正确使用 ray 每当我使用命令时 ray init trainer A3CTrainer env my env 我已经在tune上注册了我的env 程序崩溃并显示以下消息 core
  • 如何获取 SLURM 作业所用脚本的原始位置?

    我正在使用脚本启动 SLURM 作业 并且脚本必须根据其在脚本本身内部获取的位置来工作SCRIPT LOCATION realpath 0 但 SLURM 将脚本复制到slurmd文件夹并从那里开始工作 这会搞砸进一步的操作 在移动 复制之
  • SLURM 对可执行文件进行多个并行调用

    我有一个可执行文件 需要多个选项和多个文件输入才能运行 可以使用可变数量的核心来调用可执行文件来运行 例如 可执行文件 a b c file fileA file fileB file fileZ cores X 我正在尝试创建一个 sba
  • 单节点/多核作业的 sbatch 脚本中是否需要 srun?

    我正在运行一个非常常见的生物信息学工具 命令bowtie2 build 它可以在单个节点上使用多线程 不是 MPI 类型作业 我有以下 sbatch 脚本 基本上 bin bash SBATCH nodes 1 SBATCH ntasks
  • 如何更新Slurm中的作业节点号?

    我有一项待处理的工作 我想调整它的大小 我试过 scontrol update job
  • SLURM:如何限制CPU作业数量以避免浪费GPU资源

    我们使用 SLRUM 在节点之间共享 CPU 和 GPU 资源 有时 GPU 作业无法提交 因为有人提交了满的 CPU 作业 这样的话 就浪费了GPU资源 我该如何制定政策来避免这种冲突 例如 是否可以限制 GPU 作业节点上的最大 CPU
  • SLURM 每个节点提交多个任务?

    我发现了一些非常相似的问题 这些问题帮助我得到了一个似乎有效的脚本 但我仍然不确定我是否完全理解为什么 因此这个问题 我的问题 示例 在 3 个节点上 我想在每个节点上运行 12 个任务 总共 36 个任务 此外 每个任务都使用 OpenM
  • 利用 SLURM 上的所有 CPU

    我想在集群上运行作业 不同节点上有不同数量的 CPU 我不知道哪些节点将分配给我 正确的选项是什么 以便作业可以在所有节点上创建与 CPU 一样多的任务 bin bash l SBATCH p normal SBATCH N 4 SBATC

随机推荐