2017-08-12 34 views
1

我们遵循与迭代以下项目的文本分类过程:Word2Vec字的嵌入与GPU

  1. 创建Word2Vec字嵌入文本文档模型。
  2. 做一个网格搜索和树深度参数。
  3. 选择执行得最好的最终GBM模型。

当我们遍历列表时,CPU核心在%100负载下工作。是否有任何程序或解决方案使用H2O Deep Water GPU功能重复上述过程?

回答

1

不,不,也许。

也许你可以从GBM切换到xgboost,它有一个GPU选项(我相信只有单节点被支持,并且只在Linux中)。小数据集上的xgboost显然稍快一些,大数据集上的h2o.gbm稍快一些。如果您有免费的GPU,并且正在使用最新版本的H2O,则应该很容易将h2o.gbmh2o.xgboost(如果使用Python API,则为H2OXGBoostEstimator)互换,然后亲自查看。

我很想听听相关的时机! (第二个“否”是专门用于网格的GPU;但所有的努力都在模型中,而不是网格本身,所以第二个“否”可能就是“N/A” )

+0

当我们使用H2OXGBoostEstimator而不是GBM时,它似乎有更好的性能,但是实现经历了网格搜索的完成。 (https://stackoverflow.com/q/45726324/1928229) – XentneX