pytorch

    0热度

    1回答

    我想训练一个简单的MLP来近似y = f(a,b,c)。 我的代码如下。 import torch import torch.nn as nn from torch.autograd import Variable # hyper parameters input_size = 3 output_size = 1 num_epochs = 50 learning_rate = 0.0

    2热度

    3回答

    我有3TB数据集和64GB内存以及一个12核心CPU和一个12GB GPU。想要在这个数据集上训练一个深度学习模型。我如何获得批次的异步加载和模型的培训?我想确保数据的磁盘加载不会阻止训练循环等待新批处理加载到内存中。 我不是语言依赖,最简单的库可以做到这一点没有摩擦胜,但我更喜欢火炬,pytorch,tensorflow之一。

    2热度

    1回答

    我将此作为问题提交给cycleGAN pytorch implementation,但由于没有人在那里回复我,我会在此再次提问。 我主要困惑的事实,多次向前传球被一个单一的向通行之前调用,查看代码cycle_gan_model # GAN loss # D_A(G_A(A)) self.fake_B = self.netG_A.forward(self.real_A) pred_fake =

    2热度

    2回答

    我正在尝试使用CNN实现text classification model。据我所知,对于文本数据,我们应该使用1d卷积。我在使用Conv2d的pytorch中看到一个示例,但我想知道如何将Conv1d应用于文本?或者,这实际上是不可能的? 这里是我的模型场景: Number of in-channels: 1, Number of out-channels: 128 Kernel size :

    0热度

    1回答

    当我在不同的GPU(Tesla K-20,cuda 7.5,6GB内存)中运行代码时,出现以下错误(请参阅堆栈跟踪) )。如果我运行在GeForce 1080或Titan X GPU上,代码可以正常工作。 堆栈跟踪: File "code/source/main.py", line 68, in <module> train.train_epochs(train_batches, dev

    3热度

    1回答

    我在尝试加载保存的模型时出现以下错误。 KeyError: 'unexpected key "module.encoder.embedding.weight" in state_dict' 这是我使用加载保存的模型的功能。 def load_model_states(model, tag): """Load a previously saved model states."""

    5热度

    3回答

    对Pytorch模型执行超参数优化的最佳方法是什么?实现例如随机搜索我自己?使用Skicit学习?还是还有什么我不知道的?

    3热度

    1回答

    我试图在pytorch中实现向后的渐变函数。 但是,我不知道为什么这个值返回。 这是我的代码。 x = Variable(torch.FloatTensor([[1,2],[3,4]]), requires_grad=True) y = x + 2 z = y * y gradient = torch.ones(2, 2) z.backward(gradient) print(x.gr

    1热度

    1回答

    我是pytorch的新手。我想了解为什么我们不能在一个包含比例尺说变量[2,2]的变量的变量上调用后向函数。 如果我们确实想调用一个包含张量说say [2,2]的张量的变量,我们必须首先定义一个梯度张量,然后在包含张量的变量上调用后向函数梯度。

    1热度

    3回答

    我的问题可以分为两部分。 是否有可以通过不同的库使用的机器学习模型文件的格式?例如,我通过pytorch保存了一个模型,然后使用tensorflow加载它? 如果没有,是否有一个库可以帮助传输格式,以便可以直接在keras中使用pytorch机器学习模型? 我之所以问这个问题,是因为最近我需要调整一些我以前在tensorflow中训练过的模型到pytorch。 此问题的更新: Facebook和微