当优化器设置为 None

问题描述

我正在尝试使用 scikit-learn 和 GP。我尝试使用库的认优化器进行预测。这是我使用一个简单内核列表所做的事情,其中​​超参数的边界是固定的,如下所示

kernels=[1.0 * RBF(length_scale=1.0,length_scale_bounds=(0.0001,10.0)),1.0 * RationalQuadratic(length_scale=1.0,alpha=0.1,100.0),alpha_bounds=(0.001,1000000000000000.0)),1.0 * ExpSinesquared(length_scale=1.0,periodicity=3.0,10.0),periodicity_bounds=(0.001,100000.0)),1.0* (DotProduct(sigma_0=1.0,sigma_0_bounds=(0.0011,100.0)) ** 2),1.0 * Matern(length_scale=1.0,nu=1.5)]

然后:

for kernel in kernels:
    gp = GaussianProcessRegressor(kernel=kernel,n_restarts_optimizer=100,normalize_y=True)
    gp.fit(etraininga,ctraining)
    y_pred,sigma = gp.predict(energyiter,return_std=True)
    yvalues.append(y_pred)

但是,有人建议我最好手动搜索超参数,搜索最高的 LML。进行此计算后,我查看了优化后的超参数,例如,对于 RBF 内核,我获得的尺度长度为:

RBF(length_scale=1)

知道该值后,我尝试搜索存储在包含 1 的数组中的许多比例长度值。手动搜索超参数的代码是:

for x,item in enumerate(scalelengthvalues):

    kernels =1.0*RBF(length_scale=item,length_scale_bounds="fixed")
    gp = GaussianProcessRegressor(kernel=kernels,optimizer=None,return_std=True)
    index.append(x)
    LML.append(gp.log_marginal_likelihood(gp.kernel_.theta))

maxLML=max(LML)
n=LML.index(maxLML)
bestsl=scalelengthvalues[n]
kernels =1.0*RBF(length_scale=bestsl,length_scale_bounds="fixed")
gp = GaussianProcessRegressor(kernel=kernels,n_restarts_optimizer=0,normalize_y=True)
gp.fit(etraininga,ctraining)
y_pred,return_std=True)

然后我得到的比例长度的最佳结果是 0.2。有什么我做错了吗?我选择这个作为例子来询问,因为它只取决于一个超参数。我需要进行此搜索,因为我有兴趣采用迭代算法通过优化搜索搜索内核组合。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...