0
多个漏失层我想再现,其中每个时间层之后是漏失层回归神经网络,并且这些漏失层共享他们的面具。除其他外,该结构在A Theoretically Grounded Application of Dropout in Recurrent Neural Networks中有描述。mxnet:与共享掩模
据我理解代码,在MXNet实施了经常性的网络模型没有时间层之间施加任何辍学层;的功能,例如lstm
(R API,Python API)的dropout
参数实际上定义在输入降。因此我需要从头开始重新实现这些功能。
然而,漏失层似乎不采取掩模限定作为参数的变量。
是否有可能进行多次辍学层在计算图的不同的地方,但分享他们的面具?
有一些工作可以解决RNG问题,但您仍然无法指定掩码。 –
链接到[PR](https://github.com/apache/incubator-mxnet/pull/9366)。 –