问题描述
我开发了一个用 Snakemake 编写的管道,用于基因组变异调用分析。 我正在尝试 parallelize it now,以便在具有多个节点的 HPC 集群中运行。
我有一个 configuration file (yaml),其中定义了文件的路径。
当我使用命令执行管道时:
shifter --volume=/home/ubuntu/vcall_docker_gatk4_bottle/:/mnt/ \
--image=docker:ray2g/vcall_biodata:1.5.1 \
snakemake --snakefile /mnt/vcall-pipe3_cluster.snake \
-p /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta.sa \
-j 24 \
--cluster 'sbatch -p {params.partition} --mem {resources.mem_mb}mb --cpus-per-task {resources.cpus}' \
--forceall
我收到此错误:
Building DAG of jobs...
Using shell: /bin/bash
Provided cluster nodes: 24
Unlimited resources: cpus,mem_mb
Job counts:
count jobs
1 bwa_index
1
[Wed Jan 27 14:30:40 2021]
Job 0: Building index -> /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta.sa
bwa index /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta
/bin/sh: 1: sbatch: not found
Error submitting jobscript (exit code 127):Shutting down,this might take some time.
有人可以帮我吗?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)