coreml

    17热度

    2回答

    我正在尝试在2017年WWDC上演示的苹果示例Core ML模型正常运行。我正在使用GoogLeNet尝试对图像进行分类(请参阅Apple Machine Learning Page)。该模型将CVPixelBuffer作为输入。我有一个名为imageSample.jpg的图片,我正在使用这个演示。我的代码如下: var sample = UIImage(named: "imageSample"

    2热度

    2回答

    // init bounding CGRect rect = CGRectMake(0, 0, 0.3, 0.3); VNSequenceRequestHandler* reqImages = [[VNSequenceRequestHandler alloc] init]; VNRectangleObservation* ObserveRect = [VNRectangleObservati

    0热度

    3回答

    是否可以将Keras模型转换为Ubuntu上的Apple CoreML? 是否需要OSX在页面运行脚本coremltools 0.4.0在Ubuntu绝对做工精细Converting Trained Models to Core ML

    1热度

    1回答

    现在我正在研究使用CoreML模型检测某些数据概率的应用程序。 但我想知道是否有可能在Xcode游乐场中使用CoreML模型,因为它对测试目的会更方便。 我尝试将模型添加到Xcode 9游乐场,但没有运气。

    7热度

    3回答

    我在Xcode 9 Beta上使用CoreML和Swift 4.0。 如果选择在Project Navigator文件VGG16.mlmodel,我得到一个错误:There was an problem decoding this document CoreML 此外,作为代码的结果我得到的错误Use of unresolved identifier 'VGG16'和Use of undeclar

    1热度

    3回答

    在Python中,我训练了一个包含keras的图像分类模型,以接收[224,224,3]数组的输入并输出一个预测(1或0)。当我加载保存模型并将其加载到xcode中时,它指出输入必须是MLMultiArray格式。 有没有办法让我把UIImage转换成MLMultiArray格式?或者有没有办法让我改变我的keras模型来接受CVPixelBuffer类型的对象作为输入。

    1热度

    1回答

    我能够将UIImage转换为ARGB CVPixelBuffer,但现在我试图将UIImage转换为灰度级缓冲区。 我想我就再没代码经历,但coreML模型笙歌说: “错误域= com.apple.CoreML代码= 1”图片预计不会式 8灰色,反而是不支持的(40)” 这里是灰度CGContext我到目前为止: public func pixelBufferGray(width: Int, he