rweka

    0热度

    2回答

    我正在尝试安装软件包RWeka。我安装了Java版本8,但我不断收到此错误。任何人都可以帮忙吗? > install.packages('RWeka') There is a binary version available but the source version is later: binary source needs_compilation RWeka 0.4-26 0

    0热度

    1回答

    我使用创建的双字母组的列表: BigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2)) tdm_a.bigram = TermDocumentMatrix(docs_a, control = list(tokenize = BigramTokenizer)) 我试图

    -2热度

    1回答

    我想了解如何在R的RWeka库中的M5P方法生成的树的每个叶片上获取线性模型作为输出到文本文件,我可以编写一个单独的查找计算器程序(比如在非R用户的excel中)。 我使用 库(RWeka) 模型= M5P(响应〜predictorA + predictorB,数据=列车)。 我可以得到树型输出为模型$ classifier在矩阵中。这个伟大的工程归功于This post 如果我给了命令: 模型

    0热度

    1回答

    我工作在一个开放的源R包需要rJava和RWeka和莫名其妙的rJava和RWeka我的本地机器上打破神秘。 任何人都知道为什么rJava可以打破? 看来,该系统无法找到共享对象,所以我做的follwing两个: 须藤-l LDCONFIG /home/sunxd/R/x86_64-pc-linux-gnu-library/3.3 /rJava/libs/rJava.so 除了 ,我添加/home

    0热度

    1回答

    我已经使用WEKA GUI Java here来进行数据的预处理。我想现在在R中使用相同的预处理步骤。 例如,我想将WEKA GUI的MultiFilter预处理加载到R.我无法在RWeka中找到它。 如何将WEKA预处理步骤加载到R?

    2热度

    1回答

    下面是我用它来创建双克频率列表的代码: library(tm) library(RWeka) #data <- myData[,2] tdm.generate <- function(string, ng){ # tutorial on rweka - http://tm.r-forge.r-project.org/faq.html corpus <- Corpu

    0热度

    1回答

    无论如何,我可以使用10倍交叉验证将文本分类后的预测结果发回原始评论吗? 从类非国资委和国资委的意见2000结果: inst#,actual,predicted,error,prediction 1,2:non-sarc,2:non-sarc,,1 2,2:non-sarc,1:sarc,+,1 3,2:non-sarc,2:non-sarc,,1 4,2:non-sarc,2:non-s

    0热度

    1回答

    我使用rWeka软件包中的NGramTokenizer。我相信我已经正确安装了一切。我执行以下代码: Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2)) tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_

    0热度

    1回答

    我写了一个如下所示的文件(来自臭名昭着的Coursera课程和以后),它为我服务得很好。不知道是否有什么变化,但它现在似乎不工作,我什么也没有改变。 似乎不起作用的第一件事是for循环删除特殊字符。 接下来,当我将它视为计划文本文档时,词云似乎并不想工作。 最后,令牌生成器函数生成相同的图表,基本上是经常使用的单个字与编程的ngrams。这意味着每个ngram只是生成相同的图表,最频繁使用的单词与

    1热度

    1回答

    我正在试图为一个语料库,一个使用unigrams,一个使用bigrams制作两个文档项矩阵。然而,二元矩阵当前与单元矩阵相同,我不知道为什么。从的ngram包作为标记生成器,但是这并不工作 docs<-Corpus(DirSource("data", recursive=TRUE)) # Get the document term matrices BigramTokenizer <- fu