Imblearn SMOTE:如何为多类不平衡数据集设置 sample_strategy 参数?

问题描述

我正在尝试处理具有以下形状的网络攻击数据集:

df.shape
(1074992,42)

并且攻击和正常行为的标签有以下计数:

df['Label'].value_counts()
normal            812814
neptune           242149
satan               5019
ipsweep             3723
portsweep           3564
smurf               3007
nmap                1554
back                 968
teardrop             918
warezclient          893
pod                  206
guesspasswd           53
bufferoverflow        30
warezmaster           20
land                  19
imap                  12
rootkit               10
loadmodule             9
ftpwrite               8
multihop               7
phf                    4
perl                   3
spy                    2
Name: Label,dtype: int64

接下来我将数据集拆分为特征和标签

labels = df['Label']
features = df.loc[:,df.columns != 'Label'].astype('float64')

然后尝试平衡我的数据集。

print("Before UpSampling,counts of label normal: {}".format(sum(labels == "normal")))
print("Before UpSampling,counts of label Attack: {} \n".format(sum(labels != "normal")))
Before UpSampling,counts of label normal: 812814
Before UpSampling,counts of label Attack: 262178 

所以你可以注意到攻击的数量与正常行为的数量不成比例。

我尝试使用 SMOTE 使少数(攻击)类与多数类(正常)具有相同的值。

sm = SMOTE(k_neighbors = 1,random_state= 42)   #Synthetic Minority Over Sampling Technique
features_res,labels_res = sm.fit_resample(features,labels)
features_res.shape,labels_res.shape
((18694722,41),(18694722,))

我不明白的是为什么我在应用 SMOTE 后得到 18694722 个值。

print("After UpSampling,counts of label normal: {}".format(sum(labels_res == "normal")))
print("After UpSampling,counts of label Attack: {} \n".format(sum(labels_res != "normal")))
After UpSampling,counts of label normal: 812814
After UpSampling,counts of label Attack: 17881908 

对于我的情况,是对 normal 类进行下采样还是对 Attack 类进行上采样更好? 关于如何正确执行此操作的任何想法?

非常感谢。

解决方法

默认情况下,SMOTEsampling_strategynot majority

'not most':重新采样除多数类之外的所有类

所以,如果多数类的样本是 812814,你就会有

(812814 * 23) = 18694722

样品。

尝试为少数类传递具有所需样本数的字典。从docs

dict 时,key 对应于目标类。这些值对应于每个目标类别所需的样本数。

示例

改编自 docs,在本例中,我们对少数类之一进行上采样,使其具有与多数类相同的样本数。

from sklearn.datasets import make_classification
from collections import Counter
from imblearn.over_sampling import SMOTE 
X,y = make_classification(n_classes=5,class_sep=2,weights=[0.15,0.15,0.1,0.5],n_informative=4,n_redundant=1,flip_y=0,n_features=20,n_clusters_per_class=1,n_samples=1000,random_state=10)

sample_strategy = {4: 500,0: 500,1: 150,2: 100,3: 100}

sm = SMOTE(sampling_strategy=sample_strategy,random_state=0)
X_res,y_res = sm.fit_resample(X,y)
from collections import Counter
print('Resampled dataset shape %s' % Counter(y_res))
>>>
Resampled dataset shape Counter({4: 500,3: 100,2: 100})