问题描述
当我使用 H2O AutoML 运行实验时,出现错误:“在抛出一个 'thrust::system::system_error' what() 实例后调用了终止:parallel_for 失败:资源句柄无效”。此错误消息 comes from XGBoost 是因为超出 GPU 限制。
当我使用常规 XGBoost 时,我将 cuda 可见设备参数设置为空白以禁用 GPU。然而,这个参数似乎在 H2O AutoML - XGBoost 实现中被忽略了。
import os
os.environ["CUDA_VISIBLE_DEVICES"] = ""
目前,H2O AutoML 中 GPU 上唯一的 xgboost can be run。
有人知道如何在 H2O AutoML 中禁用 GPU 的问题吗?
作为一种解决方法,我暂时排除了 XGBoost 算法来运行我的实验。当我排除XGBoost但又不想放弃XGBoost的强大功能时,麻烦就过去了。
from h2o.automl import H2OAutoML
model = H2OAutoML(max_runtime_secs = 60*60*2,exclude_algos = ["XGBoost"])
解决方法
这绝对是一个疏忽,我们需要添加打开/关闭和/或指定 GPU 的功能。我为此打开了一个 ticket。我想知道在此期间是否有办法在系统级别(H2O/Python 之外)暂时禁用 GPU?感谢报告!