为什么可以从数据集中删除低方差的变量

问题描述

数据分析中的常见做法是删除低方差特征(自变量)以进行降维,理由是低方差特征不能解释响应变量(因变量)中的大部分方差。

然而,我并不完全理解这个推理。 这是一个反例(在 R 语法中):

 > independent_variable <- c(100000,100000.01,100000.02,100000.03,100000.04,100000.05 )
 > dependent_variable  <- c(1,2,3,4,5,6)
 > cor(independent_variable,dependent_variable)
 [1] 1          #pearsons correlation = 1
 > var(independent_variable )
 [1] 0.00035     
 > var(dependent_variable)
 [1] 3.5        # low variance of independent variable compared to dependent variable
 > var(independent_variable/mean(independent_variable))
 3.499998e-14   # very low variance
 > var(dependent_variable/mean(dependent_variable))
 [1] 0.2857143  # variance of scaled variables with mean=1
 

在这个例子中试图展示的情况是,因变量和自变量的相关性=1,即自变量解释了因变量的 100% 方差,然而,在原始变量和均值中=1 标度变量,自变量的方差远低于其他变量(在本例中为因变量)的方差,因此根据此推理将其删除

在这里想念什么?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)