我试图在pyspark上运行Spark MLlib软件包,并附带一个测试机器学习数据集。我将数据集分成半训练数据集和半测试数据集。以下是我建立模型的代码。但是,它显示了所有因变量中NaN,NaN的重量。无法弄清楚为什么。但是,当我尝试使用StandardScaler函数来标准化数据时,它很有用。Spark MLlib软件包NaN权重
model = LinearRegressionWithSGD.train(train_data, step = 0.01)
# evaluate model on test data set
valuesAndPreds = test_data.map(lambda p: (p.label, model.predict(p.features)))
非常感谢您的帮助。
下面是我用来进行缩放的代码。
scaler = StandardScaler(withMean = True, withStd = True).fit(data.map(lambda x:x.features))
feature = [scaler.transform(x) for x in data.map(lambda x:x.features).collect()]
label = data.map(lambda x:x.label).collect()
scaledData = [LabeledPoint(l, f) for l,f in zip(label, feature)]
它是一个标准的数据集? –
Hi Rishi,是的,它是一个包含9个预测变量的标准数据集。是否因为SGD对功能缩放非常敏感?我有一些变量的数量很大,一些变量的数字较小(例如,一个因变量是1平方米的总收入平均值,另一个是平均客户数量为5),所以我需要调整它们每? –
啊,你走了!这应该工作。我只是在我的回答中发布了这一点。 –