我的机器有如下规格:在训练LSTM/RNN模型时,为什么我的GPU比CPU慢?
CPU:至强E5-1620 V4
GPU:泰坦X(帕斯卡)
的Ubuntu 16.04
Nvidia驱动375.26
CUDA的无线工具包8.0
cuDNN 5.1
我已经基准与Tensorflow以下Keras例子作为后盾reference:
SCRIPT NAME GPU CPU
stated_lstm.py 5sec 5sec
babi_rnn.py 10sec 12sec
imdb_bidirectional_lstm.py 240sec 116sec
imbd_lstm.py 113sec 106sec
我的GPU显然是出在非LSTM机型执行我的CPU。
SCRIPT NAME GPU CPU
cifar10_cnn.py 12sec 123sec
imdb_cnn.py 5sec 119sec
mnist_cnn.py 3sec 47sec
有没有其他人经历过这个?
我可以增加我的CPU和CPU的批量大小,他们都会执行类似的操作,我希望GPU能够更好地执行。即使我的图形卡比1050ti强大得多,我们似乎也得到了类似的时间。我的CPU在cnns上明显优于我的cpu,但不是,为什么? – agsolid
@agsolid您的CPU速度非常快。我的Core i3-4330在每个时代以110s计算imdb_lstm.py(batch = 128),在GPU上计算25s。你的GPU也比我的要快。差异在于利用率(您的比例较低)。 –
我怎样才能充分利用我的GPU? – agsolid