3
阅读张量流文本摘要model它声明“下面描述的结果是基于在多GPU和多机器设置上训练的模型,它已被简化为仅在一台机器上运行,以实现开源目的。”这是张量流文本汇总的正确指南吗?
此外引导在该命令被调用:
bazel build -c opt --config=cuda textsum/...
这是否命令不涉及CUDA/GPU?为什么这个命令被截断?
阅读张量流文本摘要model它声明“下面描述的结果是基于在多GPU和多机器设置上训练的模型,它已被简化为仅在一台机器上运行,以实现开源目的。”这是张量流文本汇总的正确指南吗?
此外引导在该命令被调用:
bazel build -c opt --config=cuda textsum/...
这是否命令不涉及CUDA/GPU?为什么这个命令被截断?
这是一个bazel
命令:--config=cuda
表示“使用了CUDA编译配置(并产生GPU兼容的代码)”,并textsum/...
意思是“目录下的所有目标textsum
”(即命令不截断,你应该输入命令时键入文字...
)。
生成的代码是GPU兼容的,但不会在CPU上运行?换句话说,这个模型是否需要与其他tensorflow模型(如word2vec)不同的机器架构? –
一般来说,你应该可以用'--config = opt'替换'--config = cuda',并且为CPU生成优化的代码。我不确定文本摘要模型的细节,但对于大多数TensorFlow程序来说,这应该是通用的。 – mrry
bazel可以输出此警告吗? “配置值没有在任何.rc文件中定义:cuda” –