我使用SparkML GBTClassifier来针对二进制分类问题训练功能广泛的数据集:

Xtrain.select(labelCol).groupBy(labelCol).count().orderBy(labelCol).show()
+-----+------+
|label| count|
+-----+------+
|    0|631608|
|    1| 18428|
+-----+------+

va = VectorAssembler(inputCols=col_header, outputCol="features")
tr = GBTClassifier(labelCol=labelCol, featuresCol="features", maxIter=30, maxDepth=5, seed=420)
pipeline = Pipeline(stages=[va, tr])
model = pipeline.fit(Xtrain)


分类器运行速度非常快(非同寻常),并且以100%的准确度进行学习,而且预测结果也超过100%的准确度。当我打印时

model.stages[1].featureImportances
SparseVector(29, {0: 0.0, 1: 0.0, 2: 0.0, 3: 0.0, 4: 0.0, 5: 0.0, 6: 0.0, 7: 0.0, 8: 0.0, 9: 0.0, 10: 0.0, 11: 0.0, 12: 0.0, 13: 0.0, 14: 0.0, 15: 0.0, 16: 0.0, 17: 0.0, 18: 0.0, 19: 0.0, 20: 0.0, 21: 0.0, 22: 0.0, 23: 0.0, 24: 1.0, 25: 0.0, 26: 0.0, 27: 0.0, 28: 0.0})


我注意到我的DataFrame中的一项功能(在本例中为#24)为模型贡献了100%的权重。当我删除该字段并进行重新训练时,我看到的是同一张图片,唯一的区别是第二个字段现在对模型有所贡献,并且我获得了100%的准确性。显然这是不对的,这是什么?

最佳答案

在非简并数据集上最常见的行为原因是数据泄漏。数据泄漏可以采取不同的形式,但是要考虑


  我的DataFrame中的一项功能(在本例中为#24)贡献了100%的权重


我们可以大大缩小范围:


一个简单的编码错误-您已在功能中包含标签(或转换后的标签)。您应该仔细检查您的处理管道。
原始数据包含已用于派生标签或从标签派生的功能。您应该检查数据字典(如果有)或其他可用资源,以确定应该从模型中丢弃哪些功能(通常会寻找任何原始数据中不会期望的功能)。

10-05 21:13