问题描述
我刚刚意识到支持向量机可以用于回归,这要归功于 nice article 但是,我对超参数 C 的定义感到很困惑。
我很清楚与每个数据点相关的松弛变量 \xi_i 和分类 SVM 中的超参数 C。在那里,目标函数是 \min_{w,b} \frac{|w|}{2} + C\sum_{i=1}^N \xi_i,使得
y_i (w \cdot x_i + b) \ge 1 - \xi_i 和 \xi_i \ge 0。
在 SVM 中,C 越大,惩罚越大,因此随着 C 趋于无穷大,软 SVM 减少到硬 SVM。 (对不起原始乳胶代码,我记得乳胶是支持的,但似乎并非如此)
从链接的文章来看,目标函数和约束如下 我认为这些方程还意味着 C 越大,惩罚越大。然而,文章的作者声称相反,
我想等式中可能有错别字,所以我从任何参考资料中寻找支持,然后我发现 SVR in Python 使用相同的约定,即正则化的强度与 C 成反比。我试图检查 SVR 的源代码,但我找不到任何公式。有人可以帮助解决这个问题吗?谢谢!
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)