caffe

    11热度

    1回答

    我按照kaggle facialkeypoints比赛从输入图像中提取30个面部关键点(x,y)。 我如何设置咖啡来运行回归并生成30维输出??。 Input: 96x96 image Output: 30 - (30 dimensions). 我该如何设置caffe?我使用EUCLIDEAN_LOSS(平方和)来得到回归输出。这是一个简单的使用caffe的逻辑回归模型,但它不起作用。看起来

    13热度

    2回答

    我希望在我的模型中使用InfogainLoss类型的丢失图层。但是我很难正确定义它。 有没有关于使用INFOGAIN_LOSS图层的任何教程/例子? 该图层的输入,类概率应该是SOFTMAX图层的输出,还是足以输入完全连接图层的“顶部”? INFOGAIN_LOSS需要三个输入:类概率,标签和矩阵H。 矩阵H可以作为图层参数infogain_loss_param { source: "fienam

    2热度

    1回答

    我对caffe有点新鲜,而且我收到了一些奇怪的行为。我试图在bvlc_reference_caffenet上使用微调来完成OCR任务。 我已经接受了他们的预训练网,把最后一个FC层改为我有的输出类数,然后再训练。经过几千次迭代后,我得到了〜0.001的损失率,并且在网络测试时准确率超过了90%。也就是说,当我尝试通过我自己的数据运行我的网络时,结果很糟糕,不超过7%或8%。 我使用运行net的代码

    0热度

    1回答

    我想查找类似于其他图像的图像。所以,研究后,我发现两种方法首先在两个由它的属性表示图像像 length = full pattern = check color = blue 但这种方法的局限是,我将无法得到详尽的数据集的全部功能标记。 我发现的第二种方法是提取特征并进行特征映射。 所以我决定使用caffe深层卷积神经网络,通过使用任何现有的模型,我可以学习特征,然后执行特征匹配或其他操作。我只想

    1热度

    1回答

    我有多个GPU卡(NO.0,NO.1 ...),并且每次我在1号或2号运行caffe进程...(0除外)卡,它将在NO.0卡上使用73MiB。 例如,在下图中,过程11899将在NO.0卡上使用73MiB,但它实际上在NO.1卡上运行。 为什么?我可以禁用此功能吗?

    1热度

    1回答

    我想添加一个基于Imagenet示例的丢弃层(请参阅下面的代码)。但是,当我训练模型时,它似乎被忽略,它不会被打印为网络的一部分,而我会在下面看到警告消息。我安装了最新版本的caffe。我应该怎么做才能正确包含它? 漏失层: layer { name: "drop4" type: "Dropout" bottom: "fc4" top: "fc4"

    1热度

    1回答

    我尝试从视频帧创建实时预测程序。所有的代码由opencv支持。然而,我训练了一个咖啡模型,我试着用这个咖啡的windows port来使用它。它不支持opencv转换内存中的图像。我怎样才能做到这一点?在原来的caffe中有一个解决方案,即recently merged,但不能将此应用于此Windows版本。

    8热度

    4回答

    我正在使用https://github.com/BVLC/caffe/wiki/Ubuntu-14.04-VirtualBox-VM作为灵感在安装了CUDA的Ubuntu 14.04虚拟服务器(不带驱动程序)上安装Caffe。在安装过程中,我编译MakeFile以在构建之前包含"CPU_ONLY := 1"。但是,Caffe似乎仍在尝试使用GPU。当我尝试运行测试示例时,出现以下错误: pytho

    0热度

    3回答

    我在为Android编写应用程序,并使用caffe库。我的问题是,一开始我需要初始化caffe,这是通过将两个文件(网络结构)传递给caffe完成的。 问题是我不知道如何在设备上存储额外的文件。我已经将模型文件添加到资产,但我不知道如何使用文件路径读取它。你能告诉我在哪里存储这些可以使用文件路径访问的文件吗? 感谢您的任何想法。