我是Apache Spark的新手,正在尝试使用机器学习库来预测一些数据。我的数据集现在只有约350点。以下是其中的7点:
"365","4",41401.387,5330569
"364","3",51517.886,5946290
"363","2",55059.838,6097388
"362","1",43780.977,5304694
"361","7",46447.196,5471836
"360","6",50656.121,5849862
"359","5",44494.476,5460289
这是我的代码:
def parsePoint(line):
split = map(sanitize, line.split(','))
rev = split.pop(-2)
return LabeledPoint(rev, split)
def sanitize(value):
return float(value.strip('"'))
parsedData = textFile.map(parsePoint)
model = LinearRegressionWithSGD.train(parsedData, iterations=10)
print model.predict(parsedData.first().features)
该预测完全是疯狂的,例如
-6.92840330273e+136
。如果我没有在train()
中设置迭代,那么结果就是nan
。我究竟做错了什么?是我的数据集(可能是它的大小?)还是我的配置? 最佳答案
问题在于LinearRegressionWithSGD
使用随机梯度下降(SGD)来优化线性模型的权重向量。 SGD对提供的用于更新中间解决方案的stepSize
确实很敏感。
SGD的作用是在给定输入点样本和当前权重g
的情况下,计算成本函数的梯度w
。为了更新权重w
,您需要在g
的相反方向上走一段距离。距离是您的步长s
。
w(i+1) = w(i) - s * g
由于您未提供明确的步长值,因此MLlib假定使用
stepSize = 1
。这似乎不适用于您的用例。我建议您尝试不同的步长,通常是较小的步长,以了解LinearRegressionWithSGD
的行为方式:LinearRegressionWithSGD.train(parsedData, numIterartions = 10, stepSize = 0.001)
关于python - Spark mllib预测怪异数或NaN,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/31599400/