2017-05-03 53 views
0

我试图将不同维度的张量插入到lua表格中。但插入将最后一个张量写入表中所有以前的元素。火炬将不同维度的张量插入表格

MWE:

require 'nn'; 

char = nn.LookupTable(100,10,0,1) 
charRep = nn.Sequential():add(char):add(nn.Squeeze()) 

c = {} 
c[1] = torch.IntTensor(5):random(1,100) 
c[2] = torch.IntTensor(2):random(1,100) 
c[3] = torch.IntTensor(3):random(1,100) 
--This works fine 
print(c) 

charFeatures = {} 
for i=1,3 do 
    charFeatures[i] = charRep:forward(c[i]) 
    --table.insert(charFeatures, charRep:forward(c[i])) 
    -- No difference when table.insert is used 
end 
--This fails 
print(charFeatures) 

也许我不明白的表在Lua是如何工作的。但是这段代码将最后一个张量复制到所有以前的元素。

回答

0

该问题与表格无关,但在火炬中很常见。当您在神经网络上调用forward方法时,其状态值output已更改。现在,当您将此值保存到charFeatures[i]时,您实际上会创建从charFeatures[i]charRep.output的参考。然后在循环charRep.output的下一次迭代中被修改,因此所有元素charFeatures也被修改,因为它们指向相同的值,即charRep.output

请注意,这种行为是一样的,当你做

a = torch.Tensor(5):zero() 
b = a 
a[1] = 0 
-- then b is also modified 

为最后解决您的问题,您应该克隆网络的输出:

charFeatures[i] = charRep:forward(c[i]):clone() 

和预期都将工作!

+0

谢谢。它按预期工作:) –