问题描述
我有一个关于资源和线程的问题(我不清楚 from the documentation)。 资源是每个线程吗?
各种 HPC 作业提交系统就是这种情况。例如:例如,作业在 LSF 的 bsub 上是如何工作的:
-
如果我请求 64 个线程,每个线程 1024MiB,bsub 将安排一个具有 64 个进程的作业,每个进程单独消耗 1024MiB,因此总共消耗 64GiB。
(总内存可能在同一台机器上,也可能不在同一台机器上,因为根据
host[span=n]
参数,64 个进程可能在同一台机器上,也可能不在同一台机器上。对于 openMPI 使用,它很可能是 64 台不同的机器每个分配它自己的本地 1024MiB 块。但是使用host[span=1]
,它将成为具有 64 个线程和 64GiB 内存的单个机器)。
查看 LSF 配置文件时,mem_mb
seems to passed with only unit versions but otherwise the same value from ressources to bsub
因此,snakemake 和 LSF 似乎都假设 total_memory = threads * mem_mb。
我只是想确保这个假设是正确的。
经过进一步分析,resources accounting in jobs.py 与上述内容有联系。
提交错误请求
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)