caffe

    0热度

    1回答

    我在caffe中使用Adam方法。它具有delta/epsilon调节参数(用于避免被零除)。在caffe中,其默认值是1e-8。我可以将其更改为1e-6或1-e0。从张量流,我听说这个参数会影响训练的效果,特别是有限的数据集。 epsilon的默认值1e-8可能不是一个很好的默认值。例如,当在ImageNet上训练一个Inception网络时,当前的好选择是1.0或0.1。 如果有人尝试过改变这

    0热度

    1回答

    有一纸“抖出:一种新方法正则深层神经网络训练”,它可以在这里找到:http://ieeexplore.ieee.org/abstract/document/7920425/ 一种新的正技术是在引进这篇论文可以用更多的功能来替代丢失层。我正在研究一个深度学习问题,为此我想实施“Shakeout”技术,但问题是我无法完全理解纸张的实际流水线。有太多的数学,我仍然在努力去理解。 到目前为止,我已经看到一

    -1热度

    1回答

    我在CPU桌面上有一个训练有素的咖啡模型。我想移植它使用Caffe2进行推理的移动平台。我应该如何处理它的任何见解? Caffe2提供的脚本是否允许转换模型并重新使用权重?任何帮助,将不胜感激!谢谢!!

    -1热度

    1回答

    我的参数 base_lr: 0.04 max_iter: 170000 lr_policy: "poly" batch_size = 8 iter_size =16 这是 一些训练过程中的样子到现在为止: 这里的损失似乎停滞,是有问题这里还是这个正常?

    2热度

    1回答

    刚开始,我在caffe框架下训练了一个卷积神经网络,其模型重80Mb。虽然,我注意到在将它加载到我的项目之后,它需要几乎1 Gb的RAM。在互联网上,我发现任何CNN都需要大量的内存。这就是为什么我认为小CNN可以解决我的问题。我训练了另一个较少的层次。最终,该模型仅加权60Mb,但仍占用了先前的1Gb RAM内存。 之前,你回答我的问题,请注意: 1)当我测量采取的内存量,我评论过我的项目的每一

    1热度

    1回答

    所以这里是我的solver.prototxt: net: "models/dcnf-fcsp-alexnet/train_val.prototxt" #test_iter: 1000 #test_interval: 1000 test_initialization: false base_lr: 0.0001 lr_policy: "step" gamma: 0.01 stepsiz

    1热度

    1回答

    我是Caffe的新手。文件不清楚我的问题的主题。 在LMDB中为Caffe创建培训/测试数据库时,数据库中的密钥对它有什么意义? 换句话说,Caffe是否使用来自LMDB密钥的任何信息,还是仅使用关联的值,忽略密钥? 我找到的所有例子都建立了一些枚举数据项,并在数据库中放入了(数字转换为字符串,数据)对。 Example: # create database, # open transactio

    -1热度

    1回答

    我正尝试在自己的数据集上工作,为此,我必须创建一个LMDB文件,我曾使用此脚本创建不同数据集的LMDB文件,工作得很好,现在它只是抛出一个错误。 这是脚本。 CAFFE_ROOT=/home/decentmakeover/caffe OUTPUT=/home/decentmakeover/invasive_species LABEL_TEXT_ROOT=/home/decentmakeover

    2热度

    1回答

    我在LMDB(40Gb)中有一个巨大的数据集,我用它来训练caffe二进制分类器。 Caffe中的数据层包含整数标签。 是否有可能将其转化为花车与加入一些随机抖动任何现成层,这样我就可以申请标签平滑技术,如7.5.1 here 说明我已经看到了HDF5的例子,但它们需要重新生成数据集,我想避免它。

    1热度

    1回答

    我有一个要求,以3D滤镜方式实现去卷积层的正向计算。 这里,'3D滤波方式'是指像CV中的高斯滤波器那样的卷积。相比之下,咖啡馆则以gemm + col2im的方式实施了deconv。 我找到类似的问题here。这个人根据tranposed conv的介绍写了代码。 Image 他/她不打开源代码。所以,我完成了自己的一个: template <typename DataType> int dec