这实际上是一个完全有用的问题的副本,其答案是(部分)由提问者提供的。原标题:“R中用于文本分析的神经网络模型具有超过512个字符的公式”。他最终解决了这个问题,虽然他给出的推理是错误的,他通过删除问题并使评论和解决方案不可见来加重了这个错误。配方到神经网络的错误
我试图拟合一个神经网络模型来分类2个桶中的一个网站。培训数据特征是网站上所有链接中的词,例如,一个网站可能具有“家”,“约”,“联系人”,“产品”等特征。数据的结构为带有类列的数据框,然后是培训中每个单词的列。每行都有该类别(合格或不合格)以及该网站上显示的每个单词的0和1。
显示合理次数的单词总数约为1000,我希望将它们全部用作特征。但是,公式似乎有225个字符限制,所以我无法这样做。
我没有一个好的数据集来给出可重复的输出,但这里是我的代码和我得到的错误。
如果我尝试做一个公式,它就会被切断:
f <- as.formula(paste("class ~ ", paste(clean.features, collapse = "+", sep = "")))
Error in parse(text = x, keep.source = FALSE) : :2:0: unexpected end of input 1: ranty+recipes+contract+just+inventory+types+working+wine+hampshire+suppliers+rise+body+selection+laurel+trek+arlington+cabinet+citrus+advertisers+rhode+highway+intl+province+jewelers+cycles+wy
如果我尝试使用所有的功能:如果我使用as.formula
nn.model <- neuralnet(paste("class ~ ", paste(clean.features, collapse = "+", sep = "")), data = training.data,
hidden = num.nodes)
)
Error in parse(text = x, keep.source = FALSE) : :2:0: unexpected end of input 1: ranty+recipes+contract+just+inventory+types+working+wine+hampshire+suppliers+rise+body+selection+laurel+trek+arlington+cabinet+citrus+advertisers+rhode+highway+intl+province+jewelers+cycles+wy
同样的事情发生在数据集中,它表示没有“数据”参数(即使存在):
nn.model <- neuralnet(class ~ . , data = training.data,
hidden = num.nodes, 0))
)
Error in terms.formula(formula) : '.' in formula and no 'data' argument
> sessionInfo()
R version 3.3.2 (2016-10-31) Platform: x86_64-w64-mingw32/x64 (64-bit) Running under: Windows >= 8 x64 (build 9200)
任何变通办法的想法?
链接到原始:http://stackoverflow.com/questions/42235474/formulas-with-more-than-512-characters-for-neuralnet-model-in-r-for-text-analysi –