我有7个类需要分类,并且iam有10个特征。在这种情况下是否需要使用k的最佳值,还是必须运行kN值在1到10之间(10左右)的KNN,并借助算法本身确定最佳值?k最近邻居算法k的值
回答
除了the article我张贴的评论有this one以及这表明:
k的选择是非常重要的 - K值小意味着噪声会对结果较高的影响力。一个很大的值使得它在计算上花费很大,并且有点击败了KNN背后的基本原理(即接近的点可能具有类似的密度或类)。选择k的简单方法设为k = n ^(1/2)。
这将取决于你的个人情况,有时最好是贯穿每个可能的k值,并为你自己决定。
请问能否告诉我n是否代表班数? – user574183 2012-07-20 06:00:18
您是根据功能进行分类的,所以n代表功能数。 – NominSim 2012-07-20 13:42:28
如果我有93个功能比97是一个合适的选择,或者我应该选择93^1/2? – 2015-05-05 12:58:37
在K-NN算法要注意重要的是那的数量特征和类的数量都没有确定ķ的K-NN算法的价值发挥作用。 k-NN算法是用于基于距离度量对测试数据进行分类的自组织分类器,即,如果与其他类相比更接近测试样本的第一类训练样本的数量更多,则测试样本被分类为第一类训练样本。例如:如果k = 5个样本的值,则基于距离度量选择5个最接近的训练样本,然后对每个类别的大多数样本进行投票。因此,如果3个样本属于1类,2个属于5类,则该测试样本被归类为1类。因此,值k指示分类测试样本所需的训练样本的数量。
编辑你的问题,的ķ值为非参数和拇指的在选择的ķ的值的一般规则是K = SQRT(N)/ 2,其中Ñ看台您训练数据集中的样本数。我建议的另一个建议是尝试保持k odd的值,以便在选择一个类之间没有联系,但这指的是训练数据在类之间高度相关并使用简单的分类算法(例如k- NN会导致较差的分类性能。
- 1. K-最近邻居
- 2. k-最近邻算法
- 3. 查找K最近邻居
- 4. K最近邻居伪码?
- 5. python中的K最近邻居
- 6. 如何确定k最近邻算法中k矩阵的k值
- 7. sklearn k最近邻居问题
- 8. chisel k最近邻居verilog输出
- 9. K-d树:最近邻居搜索算法
- 10. K最近邻分类器
- 11. 使用K-最近邻居推测缺少值
- 12. 查找k近邻
- 13. IndexError:在k近邻的蟒蛇k近邻
- 14. 最近邻居算法
- 15. k-d树是否有效用于kNN搜索。 k最近邻居搜索
- 16. 点的第k个最近邻居的空间查询
- 17. 如何在Matlab中进行高效的k最近邻算法
- 18. 如何获得geodjango的k个最近邻居?
- 19. 如何使用k-d树找到最近的邻居?
- 20. 使用openmp和分段错误的并行K最近邻居
- 21. 多维立方体上的Postgresql k最近邻居(KNN)
- 22. 如何遍历KDTree找到最近的k个邻居?
- 23. 具有闭环维数的K最近邻居
- 24. 寻找给定矢量的k-最近邻居?
- 25. K最近的邻居与高尔距离测量在R
- 26. k最近邻居中浮点数的文字无效
- 27. K最近的邻居在sklearn半径 - 椭圆
- 28. 移动查询点的K最近邻居
- 29. k最近邻居关系图在Java中的实现
- 30. matlab中的k最近邻分类器
可能想看看[这篇文章](http://www.kyb.tuebingen.mpg.de/fileadmin/user_upload/files/publications/Final_version_maier_5681 [0] .pdf) – NominSim 2012-07-19 20:44:26
哦不,不幸的是,我不是足够的知识阅读和理解这篇论文。请问有人可以帮我:( – user574183 2012-07-19 20:48:04