我对数据逻辑回归和朴素贝叶斯运行了两种不同的分类算法,但即使我改变训练和测试数据比率,它也给了我相同的精度。以下是我正在使用的代码 import pandas as pd
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import StandardScaler
from skl
朴素贝叶斯我试图理解为什么朴素贝叶斯分类与特征数量线性缩放,相较于同样的想法,而不幼稚的假设。我了解它how the classifier works和what's so "naive"。我不清楚为什么天真的假设给我们线性缩放,而解除这个假设是指数的。我正在寻找一个示例,演示了线性复杂度下的“天真”设置下的算法示例,以及没有这种假设的同一个示例将展示指数复杂性。