SVR中超参数C的定义是否与SVM中对应的C相反?

问题描述

我刚刚意识到支持向量机可以用于回归,这要归功于 nice article 但是,我对超参数 C 的定义感到很困惑。

我很清楚与每个数据点相关的松弛变量 \xi_i 和分类 SVM 中的超参数 C。在那里,目标函数是 \min_{w,b} \frac{|w|}{2} + C\sum_{i=1}^N \xi_i,使得

y_i (w \cdot x_i + b) \ge 1 - \xi_i 和 \xi_i \ge 0。

在 SVM 中,C 越大,惩罚越大,因此随着 C 趋于无穷大,软 SVM 减少到硬 SVM。 (对不起原始乳胶代码,我记得乳胶是支持的,但似乎并非如此)

链接文章来看,目标函数和约束如下

enter image description here

我认为这些方程还意味着 C 越大,惩罚越大。然而,文章的作者声称相反,

enter image description here

我注意到有人在文章末尾问了作者同样的问题,但没有回复

我想等式中可能有错别字,所以我从任何参考资料中寻找支持,然后我发现 SVR in Python 使用相同的约定,即正则化的强度与 C 成反比。我试图检查 SVR 的源代码,但我找不到任何公式。有人可以帮助解决这个问题吗?谢谢!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...