从sklearn文档here或我的实验可以看出,DecisionTreeClassifier的所有树结构都是二叉树。标准是gini或熵,每个DecisionTreeClassifier节点只能有0个或1个或2个子节点。为什么决策树结构只是sklearn DecisionTreeClassifier的二叉树?
但是从决策树介绍slide(第3页),理论决策树的每个节点都可以有2个以上的子节点。
所以我的问题是为什么决策树结构只是二叉树(每个DecisionTreeClassifier节点只能有1或2个子节点。)对于sklearn DecisionTreeClassifier?我们可以为DecisionTreeClassifier获得多于2个子节点的树结构吗?
谢谢lejlot。我不认为经典的ID3算法(通过信息增益)可以找到每个树节点的分类阈值。但sklearn剂量。你知道哪个算法可以用来通过sklearn找到每个树节点的分类阈值吗? – ybdesire
@ybdesire一般情况下,最好在这种情况下提出单独的问题,以便其他人可以在遇到同样问题时找到答案。 Scikit-learn使用CART作为其决策树。 ID3无法处理数值(非分类)特征。 – lejlot
明白了。非常感谢@lejlot。 – ybdesire