logistic-regression

    0热度

    1回答

    因此,我正在用逻辑回归算法逼近分类问题,并获得了类“1”的测试集的所有预测。该集合非常不平衡,因为它具有超过200k的输入,92%的集合来自类“1”。如果P(Y = 1 | X)> 0.5,Logistic回归通常将输入分类为类“1”。因此,由于测试集中的所有观察值都被归类为1类,我认为可能有一种方法来改变该阈值并将其设置为例如0.75,以便只有P(Y = 1 | X)> 0.75的观察值归类到类

    1热度

    1回答

    我试图以配合二元响应广义相加模型,使用的代码: library(mgcv) m = gam(y~s(x1)+s(x2), family=multinom(K=2), data=mydata) 下面是部分我数据(样本量为443): mydata[1:3,] y x1 x2 1 1 12.55127 0.2553079 2 1 12.52029 0.2264185 3 0 1

    1热度

    1回答

    我需要手动编程概率回归模型而不使用glm。我会用optim直接最小化负对数似然。 我写了下面的代码,但它不工作,给错误: cannot coerce type 'closure' to vector of type 'double' # load data: data provided via the bottom link Datospregunta2a <- read.dta("proble

    2热度

    1回答

    我一直在使用tensorflow的LinearClassifier()班培养了逻辑回归模型的模型,并设置model_dir参数,它指定的位置在哪里模型训练过程中保存检查站的metagrahps : # Create temporary directory where metagraphs will evenually be saved model_dir = tempfile.mkdtemp()

    1热度

    1回答

    我想绘制一个使用ROCR软件包的标准偏差ROC曲线。 我现在用的是quality.csv文件重复的例子,在这里找到 - https://courses.edx.org/courses/course-v1:MITx+15.071x_3+1T2016/courseware/5893e4c5afb74898b8e7d9773e918208/030bf0a7275744f4a3f6f74b95169c04

    1热度

    1回答

    我正在尝试data.frame逻辑回归(11359行,137列)。 data.frame包含Y(一个因变量)和预测变量(136个独立变量)。所有变量都是二进制的。 我创建基于 “my_data” data.frame公式是f = as.formula(paste('y ~', paste(colnames(my_data)[c(3:52, 54:133, 138:143)], collapse =

    -1热度

    1回答

    我正在使用python.Now使用多项Logistic回归来执行特征选择(在具有1,00,000行和32个特征的数据集上),按顺序选择特征的最有效方式是什么为多类目标变量(1,2,3,4,5,6,7)建立模型?

    0热度

    1回答

    我试图在R中使用文本数据进行逻辑回归。我已经构建了一个文档矩阵和相应的潜在语义空间。根据我的理解,LSA用于从“术语”中导出“概念”,这可能有助于降低维度。这里是我的代码: tdm = TermDocumentMatrix(corpus, control = list(tokenize=myngramtoken,weighting=myweight)) tdm = removeSparseTer

    0热度

    1回答

    我目前正在使用tensorflow根据其“宽”教程实现逻辑回归器:https://www.tensorflow.org/tutorials/wide 我的代码与教程非常匹配,但是,当我在模型,它每次都会猜测负面的类,这是大约77%的数据。我怎样才能让我的模型冒险进行积极的猜测?我不是正规化的,所以方差应该是最大值。该文档夸耀了84%的准确性,我使用完全相同的数据集。可能会出现什么问题?这里是训练码

    0热度

    1回答

    我是新来斯卡拉,我想实现一个回归model.So最初我加载如下csv文件: val sqlContext = new org.apache.spark.sql.SQLContext(sc) val df = sqlContext.read.format("com.databricks.spark.csv") .option("header", "true") .option(