slurm 使用 mpirun conda 环境出错

问题描述

每当我在活动的 conda 环境中在批处理脚本中使用 mpirun 时都会收到错误(但如果我不使用批处理脚本或不在 conda 环境中,则不会发生此错误) .

我有一个简单的测试代码,名为 test.py

from mpi4py import MPI

comm = MPI.COMM_WORLD

n_proc = comm.Get_size()

proc_id = comm.Get_rank()

if proc_id == 0:
    print('Number of processors = '+str(n_proc))

print('Hello from proc id = '+str(proc_id))

如果我只是在登录节点运行 mpirun -np 5 python test.py,我会得到预期的结果:

Number of processors = 5
Hello from proc id = 0
Hello from proc id = 1
Hello from proc id = 2
Hello from proc id = 3
Hello from proc id = 4

但是如果我使用以下批处理脚本:

#!/bin/bash

# Submit this script with: sbatch <this-filename>

#SBATCH --time=0:30:00   # walltime
#SBATCH -n 5
#SBATCH --mem-per-cpu=10G   # memory per cpu core
#SBATCH --qos=normal # qos
#SBATCH -J "mpi"   # job name

## /SBATCH -p general # partition (queue)
## /SBATCH -o slurm.%N.%j.out # STDOUT
## /SBATCH -e slurm.%N.%j.err # STDERR

# LOAD MODULES,INSERT CODE,AND RUN YOUR PROGRAMS HERE
mpirun python test.py 

然后运行 ​​sbatch batch_script,然后出现以下错误

Error: node list format not recognized. Try using '-hosts=<hostnames>'.
/var/spool/slurmd/job12649152/slurm_script: line 21: 224459 Aborted                 (core dumped) mpirun python test.py

我尝试添加#SBATCH -hosts=n1,但仍然出现完全相同的错误(除了输出文件文件名变为 sts=n1)。我还尝试使用旧版本的 mpich (mpich/3.2.1) 构建另一个 conda 环境,但它也不起作用。

解决方法

如果任何命令依赖于正在初始化的 Conda 和/或正在激活的环境,则需要调整当前的 shebang。试试吧

#!/bin/bash -l

这将告诉脚本在登录模式下运行,然后将获取初始化脚本(例如,.bashrc),默认情况下 Conda 初始化代码所在的位置。