-2

我想学习集成方法,并发现ada-boosting可以建立在普通机器学习方法(如随机森林)之上。该方法可以使用训练集中的错误分类数据来建立更准确的分类模型。如何使用ada boosting作为R中的集合方法?

但是,我在网上搜索,但我找不到执行的答案。

我想知道如何在随机森林的顶部为分类问题构建一个ada-boosting来最小化错误?

让我们只说我有一个

训练集(DF):火车

测试集(DF):测试

和多项功能叫做:特征。

,分级被称为:结果(火车$结果)

我的正常模式将(使用插入符号包假设):

mymodel_rf < -train(火车[,结果]火车[, Feature],method =“rf”,trControl = ...)

那么如何前进?使用这个结果构建ada-boosting方法?

+0

随机森林和adaboost是不同的集成方法。但是,在谈论adaboost时,它会给数据点权重并不断更新它们。有一些数学涉及到更新权重。 您可以按照以下链接了解如何实施该算法: https://courses.cs.washington.edu/courses/cse446/17wi/slides/boosting-kNNclassification-annotated.pdf https:// courses。 cs.washington.edu/courses/cse546/13au/slides/decision-trees-annotated.pdf – frank

+0

我不是在寻找ada-boosting的定期实施。我正在寻找两种算法的集合。在坚果壳中,我想知道如何将随机森林的结果传递给ada-boosting。给予ada-boosting目标从以前的训练(在我的情况下,它是随机森林)的错误分类数据,我想知道我应该如何将随机森林中的错误分类数据传递给ada-boosting。 –

+0

2秒钟的谷歌搜索带我到这个教程:https://cran.r-project.org/web/packages/caretEnsemble/vignettes/caretEnsemble-intro.html – Zephro

回答

0

我不知道你在'顶上'是什么意思,但RF会给你一些结果,Adaboost会给你一些结果。如果你想合成这两个,只需得到结果的统计模式。

无论如何,Adaboost和Random Forest都是合奏技巧。该技术是构建无数弱分类器,并通过采用平均值或模式将它们组合成强分类器。

相关问题