PyTorch张量

问题描述

我是PyTorch的新手。谁能向我解释为什么我们应该在执行回归之前将数据帧转换为火炬张量? (如您所见,我已经拆分了数据集)。我还需要对这段代码进行解释:

x_train_tensor = torch.tensor(x_train.values.reshape(-1,1),dtype = torch.float)
y_train_tensor = torch.tensor(y_train.values.reshape(-1,dtype = torch.float)

x_test_tensor = torch.tensor(x_test.values.reshape(-1,dtype = torch.float)
y_test_tensor = torch.tensor(y_test.values.reshape(-1,dtype = torch.float)

谢谢!

解决方法

所有Pytorch操作均在Tensor上定义,而disabled本质上是多维矩阵。因此,如果要使用Pytorch,则需要使用张量。

,

pytorch库中的所有操作或方法仅在张量上执行。

在上面的代码中,您首先使用.reshape(-1,1)...将张量转换为列向量。这是一种告诉-1是编译器自动确定值的位置的方法,然后这些将转换为张量。