normalizing

    18热度

    5回答

    尝试多了解一些向量。 归一化矢量需要什么? 如果我有一个向量,N =(X,Y,Z) 什么你真的当你规范化得到它 - 我让你必须分配X /理念| N | Y/| N | & z/| N |。我的问题是,为什么我们要做这件事,我的意思是我们从这个等式中得到什么? 这样做的意义或'内部'的目的是什么。 有一点数学问题,我很抱歉,但我在这个话题中并不清楚。

    1热度

    7回答

    考虑以下结构: City Area User 每个区域都有且只有1个城市。 每个用户至少有一个但可能有多个区域。 每个用户有1个城市,只有1个城市。 什么是最优雅的方式来建模? 目前,我有: User, UserArea, Area, City 凡UserArea是一个1:M的关系W /用户,以及面积为1:1的城市。 问题是这样的: 用户可以具有当前模型下3个或4的区域,但区域的

    0热度

    2回答

    我有一个问题,关于一种方法分开的东西。我得到这个Excel电子表格,为我提供了我需要做一个报告的数据。它非常简单直接,但是有一个特定的部分给我带来了一些悲伤。 在Excel电子表格中,列中列出了“参与方”列。它通常是约12人的姓名用逗号隔开,但也有ORGID在它后面括号: 乔·史密斯(DIV32),李四(DIV12),罗杰·安德鲁斯(DIV14,DIV67,DIV01)等 ,我需要将它们分解为单独

    1热度

    1回答

    我正在尝试绘制一些测序数据,并且希望仅从缩放比例计算中排除染色体4数据(其中第一列中的行具有'4')。染色体4可能会使正态化平均值/ Sd计算偏斜,所以我想从我的scale()函数中排除它。有没有办法做到这一点?现在,我有: preMBT_RT <-preMBT_RT %>% mutate_each_(funs(scale(.) %>% as.vector),vars=c("Timing"))

    0热度

    1回答

    我试图实施产品配方(这就是我们的供应商称之为),但似乎无法包装我的头周围如何正常正常化。 我已经添加了一些示例数据来说明它的样子。 以R ***开头的值是对配方标识符的引用。 数字值是对产品标识符的引用。食谱是产品的分组(不多不少) 配方唯一的属性是名称。这应该是产品分组的逻辑名称。 正如你所看到的产品反过来也可以连接到食谱。 产品可以直接连接到其他产品。 对此的唯一限制是配方(R ***)永远不

    0热度

    3回答

    我必须维护一个旧的数据库,这个数据库没有正确的标准化。例如,有一个项目表已经增长(或者可能是如雨后春笋),有5个或更多不同的日期列,用于项目的不同里程碑从订单到交货日期。还有几个表格,每个表格都包含街道地址,邮件地址或网络链接的列。 我想规范结构,为地址,预定日期等创建表格,以及允许1:N关系(每个客户的地址,每个项目的截止日期等)的必要表格。 现在我完全不确定如何处理细节表中的数据更改。考虑例如

    4热度

    3回答

    我正在创建用于监视应用程序功能状态的数据库。该逻辑如下: 每个应用程序都有我正在监控功能的它自己的,具体名单。每个功能只属于一个应用程序。还有的是,有外键的应用 每个应用程序都在一个或多个机器上运行的功能表。每台机器可以运行一个或多个应用程序。这是MTM连接,所以ApplicationInstance表连接应用程序与机器。 实际监测是有关查询ApplicationInstance。如果出现问题,关

    10热度

    4回答

    正火的数据集我有从1到30000 我想归其范围的数据集,使之成为0.1至10 什么是最好的方法/函数来做到这一点? 如果你能给出一些示例代码,将不胜感激!

    0热度

    1回答

    我需要规范化我的表。所以我做了一个我执行的脚本(sql)。 我想将表A(旧)中的所有现有客户插入表B(新)。 很简单,就是用 INSERT INTO `A` SELECT * FROM `B`; 做,但我想设置一些外键值。表A中有city字段,但表B中有city_id字段。我认为是这样的: INSERT INTO `A` (`id`, `name`, `city_id`) SELECT `i

    0热度

    4回答

    我想正常化粒子列表中的权重。这些权重属于粒子对象。我试图通过将它们除以权重的总和来使它们正常化。所有的重量都在双打中声明。当程序在列表开始时开始分割时,该值是正确的,但在第二次或第三次分割后不久,我得到了错误的结果..其结果是操作后的权重之和不是1,应该。任何人都可以帮我解决这个问题吗?也许与线程有关? Thx提前.. // normalizing weights double weightsu