更高的 ML 模型准确性会对定价优化产生负面影响

问题描述

我使用一些超市数据来进行一些销售预测。所以,我做回归,我的模型有 25 多列。

我的最终目标是制作一个最优定价推荐——最优折扣工具。所以,我蛮力使用不同的折扣-product_prices(我不知道最好的方法)。然后,通过每次使用新价格我运行我的模型来预测新的销售预测并乘以当前尝试的价格我得到当前的“预测”收入,这样我就可以找到最大值,所以有最优价格/折扣。

但是,当我尝试不同的价格时,我发现模型的预测没有差异,因为我的模型有 25 多个列,而价格只是其中之一,并没有太大影响,尤其是在回归中。

>

我该怎么办?如果我减少我使用的因子数量,我会得到一个精度更差但价格影响更大的模型。这是某种权衡吗?有没有更好的解决方案?对于我的情况,您有替代 POV 吗?

解决方法

由于您的数据集不可用,我可能只是分享一些粗略的想法;

然而,当我尝试不同的价格时,我发现我的模型的预测没有差异,因为我的模型有 25 多列,而价格只是其中之一,并不重要,尤其是在回归中.

这似乎是一个“特征工程”问题。我会推荐;

  1. 开始显示特征的相关性 (https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.corr.html) 并思考正面和负面的潜在原因 相关性。这可能会帮助您删除一些功能并生成一些新功能。
  2. 如果您还没有尝试过,我建议您应用特征缩放。 (https://scikit-learn.org/stable/auto_examples/preprocessing/plot_scaling_importance.html)
  3. 如果你能提供更多关于数据集和你的工作的细节,我 相信比我更有经验的人会提供更好的 并更准确地回答您的问题

祝你好运...