2017-10-15 51 views

回答

1

如果您选择/保持“最佳”,随机树会分割最相关的功能。

如果选择“随机”,树要采取随机功能,并把它分解。因此,您的树可能会以更深或更低的精度结束。

你可以做一些试验,并生成一个graphviz看出区别。例如,在下面的图片上,分割X 1,然后X [0]。但是,如果你反其道而行,你最终可能会由拆分通过X [0],则X 1,并再次精确X [0]

enter image description here

编辑:作为例子,你可以考虑高度/人的体重。

让我们考虑人口高度的这样的平均水平1m70,女性通常1m65和男人1m75。两种重新分配都是重叠的。 对于体重来说,它更分离,女性在65公斤左右,而男性85公斤(曲线从不重叠)。

如果您随机分割,则可以从特征高度开始。这意味着你将在高度> 1m70处分裂。你最终会得到两个包含男性和女性的团体。所以你必须按重量分割,说出它是男人还是女人。

如果您使用最好,您可以直接根据体重进行分类。

编辑2:如果你有一个特点百分之一集,“最好”也将采取最相关的功能。想象一下,你仍然想分类男人和女人,你也有在你的数据集的眼睛的颜色,瞳孔的大小等......这些都不相关,使用随机可能会首先选择他们。

对我来说,这个选项使得只有当你知道你所有的功能都与周围相同的实力相关者的意义,如果你想节省一些计算时间(寻找最好的分裂可能会发生在某些情况下,时间)

我希望它能帮助,

+0

所以,如果让我选择“随机”,基尼杂质或信息增益将不被计算出来的?因为计算它们并使用“随机”没有任何意义,对吗? –

+0

我想它会在以后计算,但不用于选择最佳功能。 –

+0

这么好的解释....谢谢! –

1

“随机”设定随机选择一个功能,然后将其分解为随机和计算基尼系数。它重复了很多次,比较所有的分割,然后采取最好的分割。

这有几个优点:

  1. 它的计算小于在每片叶子计算每个功能的最佳分散密集。
  2. 它应该不太容易过度配合。
  3. 如果您的决策树是集成方法的一个组件,则额外的随机性很有用。
相关问题