知识架构:

封面

本文的主要作用是在阅读过程中做一些摘录。对于「机器学习」领域, c7w 虽然曾尝试从各个领域入门,也尝试训过一些模型,但是还是缺少系统性、结构性的学习。希望阅读本书能带来更多的收获吧。

与前面的一些笔记相比,本文更加侧重于「实践」。也就是说切实地提升自己的代码能力。

Part A 包含:

  • § 1 深度学习简介
  • § 2 预备知识:Pytorch
  • § 3 深度学习基础
    • 线性回归,Softmax 回归,多层感知机三类基本模型
    • 权重衰减和 Dropout 两类应对过拟合的方法
  • § 4 深度学习计算
    • 构造 Pytorch 模型的方式
    • 模型参数的访问、初始化与共享
    • 自定义 Layer
    • 读取与存储
    • GPU 计算

深度学习简介

  • 机器学习与深度学习的关系

机器学习研究如何使计算机系统利用经验改善性能。它是人工智能领域的分支,也是实现人工智能的一种手段。

在机器学习的众多研究方向中,表征学习关注如何自动找出表示数据的合适方式,以便更好地将输入变换为正确的输出。

而本书要重点探讨的深度学习是具有多级表示的表征学习方法

在每一级(从原始数据开始),深度学习通过简单的函数将该级的表示变换为更高级的表示。因此,深度学习模型也可以看作是由许多简单函数复合而成的函数。当这些复合的函数足够多时,深度学习模型就可以表达非常复杂的变换。

  • 深度学习的一个外在特点:End-to-end

深度学习的一个外在特点是端到端的训练。也就是说,并不是将单独调试的部分拼凑起来组成一个系统,而是将整个系统组建好之后一起训练。

比如说,计算机视觉科学家之前曾一度将特征抽取与机器学习模型的构建分开处理,像是Canny边缘探测 [20] 和SIFT特征提取 [21] 曾占据统治性地位达10年以上,但这也就是人类能找到的最好方法了。

当深度学习进入这个领域后,这些特征提取方法就被性能更强的自动优化的逐级过滤器替代了。

预备知识: Pytorch

数据操作

  • 对 Tensor 的操作:Tensor 的创建
函数 功能
Tensor(*sizes) 基础构造函数
tensor(data,) 类似 np.array 的构造函数
ones(*sizes) 全 1 Tensor
zeros(*sizes) 全 0 Tensor
eye(*sizes) 对角线为 1,其他为 0
arange(s,e,step) 从 s 到 e,步长为 step
linspace(s,e,steps) 从 s 到 e,均匀切分成 steps 份
rand/randn(*sizes) 均匀/标准分布
normal(mean,std)/uniform(from,to) 正态分布/均匀分布
randperm(m) 随机排列
  • 对 Tensor 进行操作时注意其可能的数据共享

如使用 view() 改变 Tensor 的形状的时候,注意返回的新 Tensor 与源 Tensor 虽然可能有不同的 size,但是是共享 data 的。

所以如果我们想返回一个真正新的副本(即不共享 data 内存)该怎么办呢?Pytorch 还提供了一个 reshape() 可以改变形状,但是此函数并不能保证返回的是其拷贝,所以不推荐使用。推荐先用 clone 创造一个副本然后再使用 view

注:虽然 view 返回的 Tensor 与源 Tensor 是共享 data 的,但是依然是一个新的 Tensor(因为 Tensor 除了包含 data 外还有一些其他属性),二者 id(内存地址)并不一致。

另外一个常用的函数就是 item(), 它可以将一个标量 Tensor 转换成一个 Python Number。

  • 广播机制 Broadcasting

当对两个形状不同的 Tensor 按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个 Tensor 形状相同后再按元素运算。例如:

x = torch.arange(1, 3).view(1, 2)
print(x)
y = torch.arange(1, 4).view(3, 1)
print(y)
print(x + y)

Output:
tensor([[1, 2]]) # x
tensor([[1],
        [2],
        [3]]) # y
tensor([[2, 3],
        [3, 4],
        [4, 5]]) # x+y
  • Tensorndarray 的转换

很容易用 numpy()from_numpy()Tensor 和 NumPy 中的数组相互转换。但是需要注意的一点是:两个函数所产生的 Tensor 和 NumPy 中的数组共享相同的内存(所以它们之间的转换很快),改变其中一个时另一个也会改变。

与之相对比,还有一个常用的将 NumPy 中的 array 转换成 Tensor 的方法就是 torch.tensor(), 需要注意的是,此方法总是会进行数据拷贝(就会消耗更多的时间和空间),所以返回的 Tensor和原来的数据不再共享内存。

所有在CPU上的 Tensor(除了 CharTensor)都支持与 NumPy 数组相互转换。

  • Tensor on GPU

用方法 to() 可以将 Tensor 在 CPU 和 GPU(需要硬件支持)之间相互移动。

# 以下代码只有在PyTorch GPU版本上才会执行
if torch.cuda.is_available():
    device = torch.device("cuda")          # GPU
    y = torch.ones_like(x, device=device)  # 直接创建一个在GPU上的Tensor
    x = x.to(device)                       # 等价于 .to("cuda")
    z = x + y
    print(z)
    print(z.to("cpu", torch.double))       # to()还可以同时更改数据类型

Autograd

  • Tensorrequires_gradFunction

上一节介绍的 Tensor 是这个包的核心类,如果将其属性 requires_grad 设置为 True,它将开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。

完成计算后,可以调用 backward() 来完成所有梯度计算。此 Tensor 的梯度将累积到 .grad 属性中。

如果不想要被继续追踪,可以调用 .detach() 将其从追踪记录中分离出来,这样就可以防止将来的计算被追踪,这样梯度就传不过去了。此外,还可以用 with torch.no_grad() 将不想被追踪的操作代码块包裹起来,这种方法在评估模型的时候很常用,因为在评估模型时,我们并不需要计算可训练参数(requires_grad=True)的梯度。

Function 是另外一个很重要的类。TensorFunction 互相结合就可以构建一个记录有整个计算过程的有向无环图。每个 Tensor 都有一个 grad_fn 属性,该属性即创建该 TensorFunction , 就是说该 Tensor 是不是通过某些运算得到的,若是,则 grad_fn 返回一个与这些运算相关的对象,否则是 None。

>>> x = torch.ones(2, 2, requires_grad=True)
>>> print(x)
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
>>> print(x.grad_fn)
None

>>> y = x + 2
>>> print(y)
tensor([[3., 3.],
        [3., 3.]], grad_fn=<AddBackward0>)
>>> print(y.grad_fn)
<AddBackward0 object at 0x7fbb003b4250>

>>> print(x.is_leaf, y.is_leaf)
True False

>>> z = y * y * 3
>>> out = z.mean()
>>> print(z, out)
tensor([[27., 27.],
        [27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward0>)

注意 x 是直接创建的,所以它没有 grad_fn, 而 y 是通过一个加法操作创建的,所以它有一个为 <AddBackward>grad_fn。像 x 这种直接创建的称为叶子节点,叶子节点对应的 grad_fnNone

>>> a = torch.randn(2, 2) # 缺失情况下默认 requires_grad = False
>>> a = ((a * 3) / (a - 1))
>>> print(a.requires_grad) # False
False

# 通过 .requires_grad_() 来用 in-place 的方式改变 requires_grad 属性
>>> a.requires_grad_(True)
tensor([[-0.0261,  0.6281],
        [ 1.1572,  6.8756]], requires_grad=True)
>>> print(a.requires_grad) # True
True

>>> b = (a * a).sum()
>>> print(b.grad_fn)
<SumBackward0 object at 0x7fba80387730>
  • backward()

因为 out 是一个标量,所以调用 backward() 时不需要指定求导变量:

>>> out.backward() # 等价于 out.backward(torch.tensor(1.))
>>> print(x.grad) # Out 关于 x 的梯度, d(out)/dx
tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

本质上,反向传播的过程是在计算一系列 Jacobi 矩阵的乘积。

注意:grad 在反向传播过程中是累加的,这意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需把梯度清零

>>> # 再来反向传播一次,注意grad是累加的
>>> out2 = x.sum()
>>> out2.backward()
>>> print(x.grad)
tensor([[5.5000, 5.5000],
        [5.5000, 5.5000]])

>>> out3 = x.sum()
>>> x.grad.data.zero_()
tensor([[0., 0.],
        [0., 0.]])
>>> out3.backward()
>>> print(x.grad)
tensor([[1., 1.],
        [1., 1.]])

注:PyTorch 的 backward 为什么有一个 grad_variables 参数?

假设 x 经过一番计算得到 y,那么 y.backward(w) 求的不是 y 对 x 的导数,而是 l = torch.sum(y*w) 对 x 的导数。w 可以视为 y 的各分量的权重,也可以视为遥远的损失函数 l 对 y 的偏导数(这正是函数说明文档的含义)。特别地,若 y 为标量,w 取默认值 1.0,才是按照我们通常理解的那样,求 y 对 x 的导数。

  • 中断梯度传播
x = torch.tensor(1.0, requires_grad=True)
y1 = x ** 2 
with torch.no_grad():
    y2 = x ** 3
y3 = y1 + y2

print(x.requires_grad)
print(y1, y1.requires_grad) # True
print(y2, y2.requires_grad) # False
print(y3, y3.requires_grad) # True

Output:
True
tensor(1., grad_fn=<PowBackward0>) True
tensor(1.) False
tensor(2., grad_fn=<ThAddBackward>) True

可以看到,上面的 y2 是没有 grad_fn 而且 y2.requires_grad=False 的,而 y3 是有 grad_fn 的。如果我们将y3x求梯度的话:

y3.backward()
print(x.grad)

Output:
tensor(2.)

正如我们所理解的,$y_3 = y_1 + y_2 = x^2 + x^3$,其中 $y_2$ 的梯度不被回传,因此 $\dfrac {d y_3} {dx} = 2x$.

此外,如果我们想要修改 Tensor 的数值,但是又不希望被 autograd 记录(即不会影响反向传播),那么我么可以对 tensor.data 进行操作。

x = torch.ones(1,requires_grad=True)

print(x.data) # 还是一个tensor
print(x.data.requires_grad) # 但是已经是独立于计算图之外

y = 2 * x
x.data *= 100 # 只改变了值,不会记录在计算图,所以不会影响梯度传播

y.backward()
print(x) # 更改data的值也会影响tensor的值
print(x.grad)

Output:
tensor([1.])
False
tensor([100.], requires_grad=True)
tensor([2.])

深度学习基础

基础模型

Linear Regression

首先,回归问题的输出是连续值,而分类问题的输出是离散值,这是二者的区别。

  • 模型定义:假设我们采集的样本数为 $n$​,索引为 $i$​ 的样本的特征为 $x_1^{(i)}$​ 和 $x_2^{(i)}$​,标签为 $y^{(i)}$​。对于索引为 $i$​ 的房屋,线性回归模型的房屋价格预测表达式为
  • 损失函数:$\ell^{(i)}(w_1, w_2, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2$​, $ \ell(w_1, w_2, b) =\frac{1}{n} \sum_{i=1}^n \ell^{(i)}(w_1, w_2, b) =\frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right)^2$​

在模型训练中,我们希望找出一组模型参数,记为 $w_1^, w_2^, b^$,来使训练样本平均损失最小:$ w_1^, w_2^, b^ = \underset{w_1, w_2, b}{\arg\min} \ell(w_1, w_2, b) $

  • 优化算法

当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解

在求数值解的优化算法中,小批量随机梯度下降(Mini-batch SGD, mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)$\mathcal{B}$​,然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数 learning_rate $\eta$ 的乘积作为模型参数在本次迭代的减小量。

在训练本节讨论的线性回归模型的过程中,模型的每个参数将作如下迭代:

在上式中,$|\mathcal{B}|$ 代表每个小批量中的样本个数(批量大小,batch size),$\eta$ 称作学习率(learning rate)并取正数。需要强调的是,这里的批量大小和学习率的值是人为设定的,并不是通过模型训练学出的,因此叫作超参数(hyperparameter)。我们通常所说的“调参”指的正是调节超参数,例如通过反复试错来找到超参数合适的值。

实现
  • 生成数据集
num_inputs = 2
num_examples = 1000
true_w = [2, -3.4]
true_b = 4.2
features = torch.tensor(np.random.normal(0, 1, (num_examples, num_inputs)), dtype=torch.float)
labels = true_w[0] * features[:, 0] + true_w[1] * features[:, 1] + true_b
labels += torch.tensor(np.random.normal(0, 0.01, size=labels.size()), dtype=torch.float)
  • 读取数据
import torch.utils.data as Data

batch_size = 10
# 将训练数据的特征和标签组合
dataset = Data.TensorDataset(features, labels)
# 随机读取小批量
data_iter = Data.DataLoader(dataset, batch_size, shuffle=True)
for X, y in data_iter:
    print(X, y)
    break

tensor([[-2.7723, -0.6627],
        [-1.1058,  0.7688],
        [ 0.4901, -1.2260],
        [-0.7227, -0.2664],
        [-0.3390,  0.1162],
        [ 1.6705, -2.7930],
        [ 0.2576, -0.2928],
        [ 2.0475, -2.7440],
        [ 1.0685,  1.1920],
        [ 1.0996,  0.5106]]) 
 tensor([ 0.9066, -0.6247,  9.3383,  3.6537,  3.1283, 17.0213,  5.6953, 17.6279,
         2.2809,  4.6661])
# 可以看到,对迭代器进行迭代每次拿到的数据也是以 batch 的形式封装成 array
  • 定义模型

首先,导入 torch.nn 模块。实际上,“nn”是neural networks(神经网络)的缩写。

顾名思义,该模块定义了大量神经网络的层。之前我们已经用过了 autograd,而 nn 就是利用 autograd 来定义模型。

nn 的核心数据结构是 Module,它是一个抽象概念,既可以表示神经网络中的某个层(layer),也可以表示一个包含很多层的神经网络。在实际使用中,最常见的做法是继承 nn.Module,撰写自己的网络/层。

一个 nn.Module 实例应该包含一些层以及返回输出的前向传播(forward)方法。下面先来看看如何用 nn.Module 实现一个线性回归模型。

class LinearNet(nn.Module):
    def __init__(self, n_feature):
        super(LinearNet, self).__init__()
        self.linear = nn.Linear(n_feature, 1)
    # forward 定义前向传播
    def forward(self, x):
        y = self.linear(x)
        return y

net = LinearNet(num_inputs)
print(net) # 使用print可以打印出网络的结构

# Output:
LinearNet(
  (linear): Linear(in_features=2, out_features=1, bias=True)
)

事实上我们还可以用nn.Sequential来更加方便地搭建网络,Sequential是一个有序的容器,网络层将按照在传入Sequential的顺序依次被添加到计算图中。

# 写法一
net = nn.Sequential(
    nn.Linear(num_inputs, 1)
    # 此处还可以传入其他层
    )

# 写法二
net = nn.Sequential()
net.add_module('linear', nn.Linear(num_inputs, 1))
# net.add_module ......

# 写法三
from collections import OrderedDict
net = nn.Sequential(OrderedDict([
          ('linear', nn.Linear(num_inputs, 1))
          # ......
]))

print(net)
print(net[0])

Output:
Sequential(
  (linear): Linear(in_features=2, out_features=1, bias=True)
)
Linear(in_features=2, out_features=1, bias=True)

可以通过 net.parameters() 来查看模型所有的可学习参数,此函数将返回一个生成器。

for param in net.parameters():
    print(param)

输出:
Parameter containing:
tensor([[-0.0277,  0.2771]], requires_grad=True)
Parameter containing:
tensor([0.3395], requires_grad=True)

注意:torch.nn 仅支持输入一个 batch 的样本,而不支持单个样本输入,如果只有单个样本,可使用 input.unsqueeze(0) 来添加一维。

附:unsqueeze() 的使用:

>>> a = torch.randn((1,5,3))
>>> a
tensor([[[-0.6444, -0.5408, -0.6239],
         [-0.8880, -0.7358,  0.7287],
         [ 1.1660,  1.3125, -3.4676],
         [-1.4620, -0.1572, -0.4755],
         [ 0.6389, -2.4514,  0.3339]]])

>>> a.unsqueeze(0) # 最外层加壳
tensor([[[[-0.6444, -0.5408, -0.6239],
          [-0.8880, -0.7358,  0.7287],
          [ 1.1660,  1.3125, -3.4676],
          [-1.4620, -0.1572, -0.4755],
          [ 0.6389, -2.4514,  0.3339]]]])

>>> a.unsqueeze(1) # 次外层元素
tensor([[[[-0.6444, -0.5408, -0.6239],
          [-0.8880, -0.7358,  0.7287],
          [ 1.1660,  1.3125, -3.4676],
          [-1.4620, -0.1572, -0.4755],
          [ 0.6389, -2.4514,  0.3339]]]])

>>> a.unsqueeze(2)
tensor([[[[-0.6444, -0.5408, -0.6239]],

         [[-0.8880, -0.7358,  0.7287]],

         [[ 1.1660,  1.3125, -3.4676]],

         [[-1.4620, -0.1572, -0.4755]],

         [[ 0.6389, -2.4514,  0.3339]]]])

>>> a.unsqueeze(3)
tensor([[[[-0.6444],
          [-0.5408],
          [-0.6239]],

         [[-0.8880],
          [-0.7358],
          [ 0.7287]],

         [[ 1.1660],
          [ 1.3125],
          [-3.4676]],

         [[-1.4620],
          [-0.1572],
          [-0.4755]],

         [[ 0.6389],
          [-2.4514],
          [ 0.3339]]]])

>>> a.unsqueeze(4)
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
IndexError: Dimension out of range (expected to be in range of [-4, 3], but got 4)

>>> a.unsqueeze(-1) # 最内层
tensor([[[[-0.6444],
          [-0.5408],
          [-0.6239]],

         [[-0.8880],
          [-0.7358],
          [ 0.7287]],

         [[ 1.1660],
          [ 1.3125],
          [-3.4676]],

         [[-1.4620],
          [-0.1572],
          [-0.4755]],

         [[ 0.6389],
          [-2.4514],
          [ 0.3339]]]])

>>> a.squeeze() # 一直到最内层
tensor([[-0.6444, -0.5408, -0.6239],
        [-0.8880, -0.7358,  0.7287],
        [ 1.1660,  1.3125, -3.4676],
        [-1.4620, -0.1572, -0.4755],
        [ 0.6389, -2.4514,  0.3339]])

>>> a.squeeze(1) # 某一层
tensor([[[-0.6444, -0.5408, -0.6239],
         [-0.8880, -0.7358,  0.7287],
         [ 1.1660,  1.3125, -3.4676],
         [-1.4620, -0.1572, -0.4755],
         [ 0.6389, -2.4514,  0.3339]]])
  • 初始化模型参数
from torch.nn import init
init.normal_(net[0].weight, mean=0, std=0.01)
init.constant_(net[0].bias, val=0)  # 也可以直接修改bias的data: net[0].bias.data.fill_(0)
  • 定义损失函数

PyTorch 在 nn 模块中提供了各种损失函数,这些损失函数可看作是一种特殊的层,PyTorch 也将这些损失函数实现为 nn.Module 的子类。我们现在使用它提供的均方误差损失作为模型的损失函数。

loss = nn.MSELoss()
  • 定义优化算法

同样,我们也无须自己实现小批量随机梯度下降算法。torch.optim 模块提供了很多常用的优化算法比如 SGD、Adam 和 RMSProp 等。下面我们创建一个用于优化 net 所有参数的优化器实例,并指定学习率为 0.03 的小批量随机梯度下降(SGD)为优化算法。

import torch.optim as optim
optimizer = optim.SGD(net.parameters(), lr=0.03)
print(optimizer)

输出:

SGD (
Parameter Group 0
    dampening: 0
    lr: 0.03
    momentum: 0
    nesterov: False
    weight_decay: 0
)

我们还可以为不同子网络设置不同的学习率,这在 fine-tune 时经常用到。例:

optimizer =optim.SGD([
                # 如果对某个参数不指定学习率,就使用最外层的默认学习率
                {'params': net.subnet1.parameters()}, # lr=0.03
                {'params': net.subnet2.parameters(), 'lr': 0.01}
            ], lr=0.03)

有时候我们不想让学习率固定成一个常数,那如何调整学习率呢?主要有两种做法。一种是修改 optimizer.param_groups 中对应的学习率,另一种是更简单也是较为推荐的做法 —— 新建优化器,由于optimizer十分轻量级,构建开销很小,故而可以构建新的 optimizer。但是后者对于使用动量的优化器(如 Adam),会丢失动量等状态信息,可能会造成损失函数的收敛出现震荡等情况。

# 调整学习率
for param_group in optimizer.param_groups:
    param_group['lr'] *= 0.1 # 学习率为之前的0.1倍

  • 训练模型

通过调用 optim 实例的 step 函数来迭代模型参数。按照小批量随机梯度下降的定义,我们在 step 函数中指明批量大小,从而对批量中样本梯度求平均。

num_epochs = 3
for epoch in range(1, num_epochs + 1):
    for X, y in data_iter:
        output = net(X)
        l = loss(output, y.view(-1, 1))
        optimizer.zero_grad() # 梯度清零,等价于net.zero_grad()
        l.backward()
        optimizer.step()
    print('epoch %d, loss: %f' % (epoch, l.item()))

输出:

epoch 1, loss: 0.000457
epoch 2, loss: 0.000081
epoch 3, loss: 0.000198

Softmax Regression

线性回归模型适用于输出为连续值的情景。

在另一类情景中,模型输出可以是一个像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使用诸如 softmax 回归在内的分类模型

和线性回归不同,softmax 回归的输出单元从一个变成了多个,且引入了 softmax 运算使输出更适合离散值的预测和训练。本节以 softmax 回归模型为例,介绍神经网络中的分类模型。

softmax 回归跟线性回归一样将输入特征与权重做线性叠加。与线性回归的一个主要不同在于,softmax 回归的输出值个数等于标签里的类别数

  • 模型定义

其中:

  • 损失函数:Cross Entropy

交叉熵只关心对正确类别的预测概率,因为只要其值足够大,就可以确保分类结果正确。

假设训练数据集的样本数为 $n$​,交叉熵损失函数定义为 $\ell(\boldsymbol{\Theta}) = \frac{1}{n} \sum_{i=1}^n H\left(\boldsymbol y^{(i)}, \boldsymbol {\hat y}^{(i)}\right ) $​. 其中$\boldsymbol{\Theta}$​​代表模型参数。

注意:这里的交叉熵是 H = - [ 实际值 * log(预测值) ] 的求和。而 log(预测值) 却又可以替换为是预测时的 logits $o_i$​​​,二者之间只差了一个系数。因此背后实现可以直接用 logits 参与简化计算。

数据集与相关包的介绍:Fashion-MNIST

本节我们将使用 torchvision 包,它是服务于 PyTorch 深度学习框架的,主要用来构建计算机视觉模型。 torchvision 主要由以下几部分构成:

  1. torchvision.datasets: 一些加载数据的函数及常用的数据集接口;
  2. torchvision.models: 包含常用的模型结构(含预训练模型),例如 AlexNet、VGG、ResNet 等;
  3. torchvision.transforms: 常用的图片变换,例如裁剪、旋转等;
  4. torchvision.utils: 其他的一些有用的方法。

感知机

  • 仅添加隐藏层:即便再添加更多的隐藏层,将线性隐藏层间彼此相接依然只能与仅含输出层的单层神经网络等价。

上述问题的根源在于全连接层只是对数据做仿射变换(affine transformation),而多个仿射变换的叠加仍然是一个仿射变换。

解决问题的一个方法是引入非线性变换,例如对隐藏变量使用按元素运算的非线性函数进行变换,然后再作为下一个全连接层的输入。

这个非线性函数被称为激活函数(activation function)。下面我们介绍几个常用的激活函数。

  • $Relu(x) = \max(0, x)$.
  • $sigmoid(x) =\sigma(x) = \dfrac 1 {1 + e^{-x}}$.
  • $\text{tanh}(x) = \frac{1 - \exp(-2x)}{1 + \exp(-2x)}$.

多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。

应对过拟合

L2 Regularization

  • 权重衰减是一种应对过拟合的方法
  • 权重衰减等价于 $L_2$ 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。我们先描述 $L_2$ 范数正则化,再解释它为何又称权重衰减。

$L_2$ 范数正则化在模型原损失函数基础上添加 $L_2$ 范数惩罚项,从而得到训练所需要最小化的函数。

$L_2$ 范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。即定义新的 Loss Function 为:

为什么 $L_2$ Regularization 能起到“权重衰减”的作用呢?我们考虑 Optimizer 的迭代方式…

这是因为如果我们对损失函数求梯度,就必然带有了和原有的 $w$ 有关的一项。然后我们在做优化迭代的过程中,$L_2$ 范数正则化令权重 $w_1$ 和 $w_2$ 先自乘小于 1 的数,再减去不含惩罚项的梯度。因此,$L_2$ 范数正则化又叫权重衰减。

权重衰减通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制,这可能对过拟合有效。实际场景中,我们有时也在惩罚项中添加偏差元素的平方和。

实现
  • 定义 L2 范数惩罚项
def l2_penalty(w):
    return (w**2).sum() / 2
  • Train (From scratch)
def fit_and_plot(lambd):
    w, b = init_params()
    train_ls, test_ls = [], []
    for _ in range(num_epochs):
        for X, y in train_iter:
            # 添加了L2范数惩罚项
            l = loss(net(X, w, b), y) + lambd * l2_penalty(w)
            l = l.sum()

            if w.grad is not None:
                w.grad.data.zero_()
                b.grad.data.zero_()
            l.backward()
            d2l.sgd([w, b], lr, batch_size)
        train_ls.append(loss(net(train_features, w, b), train_labels).mean().item())
        test_ls.append(loss(net(test_features, w, b), test_labels).mean().item())
    d2l.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'loss',
                 range(1, num_epochs + 1), test_ls, ['train', 'test'])
    print('L2 norm of w:', w.norm().item())
  • Train (Simple)

这里我们直接在构造优化器实例时通过 weight_decay 参数来指定权重衰减超参数。默认下,PyTorch 会对权重和偏差同时衰减。我们可以分别对权重和偏差构造优化器实例,从而只对权重衰减。

def fit_and_plot_pytorch(wd):
    # 对权重参数衰减。权重名称一般是以weight结尾
    net = nn.Linear(num_inputs, 1)
    nn.init.normal_(net.weight, mean=0, std=1)
    nn.init.normal_(net.bias, mean=0, std=1)
    optimizer_w = torch.optim.SGD(params=[net.weight], lr=lr, weight_decay=wd) # 对权重参数衰减
    optimizer_b = torch.optim.SGD(params=[net.bias], lr=lr)  # 不对偏差参数衰减

    train_ls, test_ls = [], []
    for _ in range(num_epochs):
        for X, y in train_iter:
            l = loss(net(X), y).mean()
            optimizer_w.zero_grad()
            optimizer_b.zero_grad()

            l.backward()

            # 对两个 optimizer 实例分别调用 step 函数,从而分别更新权重和偏差
            optimizer_w.step()
            optimizer_b.step()
        train_ls.append(loss(net(train_features), train_labels).mean().item())
        test_ls.append(loss(net(test_features), test_labels).mean().item())
    d2l.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'loss',
                 range(1, num_epochs + 1), test_ls, ['train', 'test'])
    print('L2 norm of w:', net.weight.data.norm().item())

Dropout

除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法(Dropout)来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。

当对某个隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 $p$,那么有 $p$ 的概率其输出 $h_i$ 会被清零,有 $1-p$ 的概率 $h_i$ 会除以 $1-p$ 做拉伸。

丢弃概率是丢弃法的超参数。具体来说,设随机变量 $\xi_i$ 为 0 和 1 的概率分别为 $p$ 和 $1-p$ 。使用丢弃法时我们计算新的隐藏单元 $ h_i’ = \frac{\xi_i}{1-p} h_i $,由于 $E(\xi_i) = 1-p$,因此

丢弃法不改变其输入的期望值

  • 实现(Simple)
net = nn.Sequential(
        d2l.FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens1),
        nn.ReLU(),
        nn.Dropout(drop_prob1), # Here
        nn.Linear(num_hiddens1, num_hiddens2), 
        nn.ReLU(),
        nn.Dropout(drop_prob2), # Here
        nn.Linear(num_hiddens2, 10)
        )

for param in net.parameters():
    nn.init.normal_(param, mean=0, std=0.01)
  • 数值稳定性

深度模型有关数值稳定性的典型问题是衰减(vanishing)和爆炸(explosion)。

当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为 $L$ 的多层感知机的第 $l$ 层 $\boldsymbol{H}^{(l)}$ 的权重参数为 $\boldsymbol{W}^{(l)}$,输出层 $\boldsymbol{H}^{(L)}$ 的权重参数为 $\boldsymbol{W}^{(L)}$。

为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射 $\phi(x) = x$。

给定输入 $\boldsymbol{X}$,多层感知机的第 $l$ 层的输出 $\boldsymbol{H}^{(l)} = \boldsymbol{X} \boldsymbol{W}^{(1)} \boldsymbol{W}^{(2)} \ldots \boldsymbol{W}^{(l)}$。

此时,如果层数$l$较大,$\boldsymbol{H}^{(l)}$ 的计算可能会出现衰减或爆炸。

举个例子,假设输入和所有层的权重参数都是标量,如权重参数为 0.2 和 5,多层感知机的第 30 层输出为输入 $\boldsymbol{X}$ 分别与 $0.2^{30} \approx 1 \times 10^{-21}$(衰减)和 $5^{30} \approx 9 \times 10^{20}$(爆炸)的乘积。

类似地,当层数较多时,梯度的计算也更容易出现衰减或爆炸。

  • 模型初始化

在神经网络中,通常需要随机初始化模型参数。下面我们来解释这样做的原因。

考虑多层感知机模型。如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输入计算出相同的值,并传递至输出层。

在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使用基于梯度的优化算法迭代后值依然相等。

之后的迭代也是如此。在这种情况下,无论隐藏单元有多少,隐藏层本质上只有 1 个隐藏单元在发挥作用。

因此,正如在前面的实验中所做的那样,我们通常将神经网络的模型参数,特别是权重参数,进行随机初始化。

PyTorch 中 nn.Module 的模块参数都采取了较为合理的初始化策略。

深度学习计算

模型构造

  • 可以通过继承Module类来构造模型,重载 __init__ 函数和 forward 函数。
class MLP(nn.Module):
    # 声明带有模型参数的层,这里声明了两个全连接层
    def __init__(self, **kwargs):
        # 调用 MLP 父类 Module 的构造函数来进行必要的初始化。这样在构造实例时还可以指定其他函数
        # 参数,如“模型参数的访问、初始化和共享”一节将介绍的模型参数 params
        super(MLP, self).__init__(**kwargs)
        self.hidden = nn.Linear(784, 256) # 隐藏层
        self.act = nn.ReLU()
        self.output = nn.Linear(256, 10)  # 输出层


    # 定义模型的前向计算,即如何根据输入 x 计算返回所需要的模型输出
    def forward(self, x):
        a = self.act(self.hidden(x))
        return self.output(a)
  • SequentialModuleListModuleDict类都继承自Module类。

Sequential

net = MySequential(
        nn.Linear(784, 256),
        nn.ReLU(),
        nn.Linear(256, 10), 
        )
print(net)
net(X)

ModuleList

net = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()])
net.append(nn.Linear(256, 10)) # # 类似 List 的 append 操作
print(net[-1])  # 类似 List 的索引访问
print(net)
# net(torch.zeros(1, 784)) # 会报 NotImplementedError

ModuleList仅仅是一个储存各种模块的列表,这些模块之间没有联系也没有顺序(所以不用保证相邻层的输入输出维度匹配),而且没有实现 forward 功能需要自己实现,所以上面执行 net(torch.zeros(1, 784)) 会报NotImplementedError;而 Sequential 内的模块需要按照顺序排列,要保证相邻层的输入输出大小相匹配,内部 forward 功能已经实现。此外,ModuleList 不同于一般的 Python 的 list,加入到 ModuleList 里面的所有模块的参数会被自动添加到整个网络中。

ModuleDict

ModuleDict 接收一个子模块的字典作为输入, 然后也可以类似字典那样进行添加访问操作。

net = nn.ModuleDict({
    'linear': nn.Linear(784, 256),
    'act': nn.ReLU(),
})
net['output'] = nn.Linear(256, 10) # 添加
print(net['linear']) # 访问
print(net.output)
print(net)
# net(torch.zeros(1, 784)) # 会报NotImplementedError

ModuleList 一样,ModuleDict 实例仅仅是存放了一些模块的字典,并没有定义 forward 函数需要自己定义。同样,ModuleDict 也与Python的 Dict 有所不同,ModuleDict 里的所有模块的参数会被自动添加到整个网络中。

  • Sequential不同,ModuleListModuleDict并没有定义一个完整的网络,它们只是将不同的模块存放在一起,需要自己定义forward函数。
  • 虽然Sequential等类可以使模型构造更加简单,但直接继承Module类可以极大地拓展模型构造的灵活性。
class FancyMLP(nn.Module):
    def __init__(self, **kwargs):
        super(FancyMLP, self).__init__(**kwargs)

        self.rand_weight = torch.rand((20, 20), requires_grad=False) # 不可训练参数(常数参数)
        self.linear = nn.Linear(20, 20)

    def forward(self, x):
        x = self.linear(x)
        # 使用创建的常数参数,以及 nn.functional 中的 relu 函数和 mm 函数
        x = nn.functional.relu(torch.mm(x, self.rand_weight.data) + 1)

        # 复用全连接层。等价于两个全连接层共享参数
        x = self.linear(x)
        # 控制流,这里我们需要调用 item 函数来返回标量进行比较
        while x.norm().item() > 1:
            x /= 2
        if x.norm().item() < 0.8:
            x *= 10
        return x.sum()

模型参数的访问、初始化与共享

本节用到的模型:

import torch
from torch import nn
from torch.nn import init

net = nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1))  # pytorch 已进行默认初始化

print(net)
X = torch.rand(2, 4)
Y = net(X).sum()

Output:
Sequential(
  (0): Linear(in_features=4, out_features=3, bias=True)
  (1): ReLU()
  (2): Linear(in_features=3, out_features=1, bias=True)
)
  • 访问模型参数

对于 Sequential 实例(派生自 Module)中含模型参数的层,我们可以通过 Module 类的 parameters() 或者 named_parameters 方法来访问所有参数(以迭代器的形式返回),后者除了返回参数 Tensor 外还会返回其名字。

>>> print(type(net.named_parameters()))
<class 'generator'>

>>> for name, param in net.named_parameters():
...     print(name, param.size())
...
0.weight torch.Size([3, 4])
0.bias torch.Size([3])
2.weight torch.Size([1, 3])
2.bias torch.Size([1])

接下来访问单层的参数。对于使用 Sequential 类构造的神经网络,我们可以通过方括号 [] 来访问网络的任一层。索引 0 表示隐藏层为 Sequential 实例最先添加的层。

>>> for name, param in net[0].named_parameters():
...     print(name, param.size(), type(param))
...
weight torch.Size([3, 4]) <class 'torch.nn.parameter.Parameter'>
bias torch.Size([3]) <class 'torch.nn.parameter.Parameter'>

返回的 param 的类型为 torch.nn.parameter.Parameter,其实这是 Tensor 的子类,和 Tensor 不同的是如果一个 TensorParameter,那么它会自动被添加到模型的参数列表里。

class MyModel(nn.Module):
    def __init__(self, **kwargs):
        super(MyModel, self).__init__(**kwargs)
        self.weight1 = nn.Parameter(torch.rand(20, 20))
        self.weight2 = torch.rand(20, 20)
    def forward(self, x):
        pass

n = MyModel()
for name, param in n.named_parameters():
    print(name)
    
Output:
weight1
  • 初始化模型参数

PyTorch 中 nn.Module 的模块参数都采取了较为合理的初始化策略,但我们经常需要使用其他方法来初始化权重。

PyTorch 的 init 模块里提供了多种预设的初始化方法。在下面的例子中,我们将权重参数初始化成均值为 0、标准差为 0.01 的正态分布随机数,并依然将偏差参数清零。

for name, param in net.named_parameters():
    if 'weight' in name:
        init.normal_(param, mean=0, std=0.01)
        print(name, param.data)

Output:
0.weight tensor([[ 0.0030,  0.0094,  0.0070, -0.0010],
        [ 0.0001,  0.0039,  0.0105, -0.0126],
        [ 0.0105, -0.0135, -0.0047, -0.0006]])
2.weight tensor([[-0.0074,  0.0051,  0.0066]])

下面使用常数来初始化权重参数。

for name, param in net.named_parameters():
    if 'bias' in name:
        init.constant_(param, val=0)
        print(name, param.data)

Output:
0.bias tensor([0., 0., 0.])
2.bias tensor([0.])

有时候我们需要的初始化方法并没有在 init 模块中提供。这时,可以实现一个初始化方法,从而能够像使用其他初始化方法那样使用它。

首先参考 normal_ 的实现:

def normal_(tensor, mean=0, std=1):
    with torch.no_grad():
        return tensor.normal_(mean, std)

类似地,我们可以实现自定义的初始化方法:

def init_weight_(tensor):
    with torch.no_grad():
        tensor.uniform_(-10, 10)
        tensor *= (tensor.abs() >= 5).float()

for name, param in net.named_parameters():
    if 'weight' in name:
        init_weight_(param)
        print(name, param.data)

此外,我们还可以通过直接改变这些参数的 data 来达到改写模型参数值的同时不会影响梯度的效果。

  • 共享模型参数

在有些情况下,我们希望在多个层之间共享模型参数。

共享模型参数的方法: Module 类的 forward 函数里多次调用同一个层。

此外,如果我们传入 Sequential 的模块是同一个 Module 实例的话参数也是共享的。

linear = nn.Linear(1, 1, bias=False)
net = nn.Sequential(linear, linear) 
print(net)
for name, param in net.named_parameters():
    init.constant_(param, val=3)
    print(name, param.data)

Output:
Sequential(
  (0): Linear(in_features=1, out_features=1, bias=False)
  (1): Linear(in_features=1, out_features=1, bias=False)
)
0.weight tensor([[3.]]) # 这里只输出了一次参数列表,证明二者共享

因为模型参数里包含了梯度,所以在反向传播计算时,这些共享的参数的梯度是累加的。

自定义 Layer

本节将介绍如何使用 Module来自定义层,从而可以被重复调用。

  • 不含模型参数的自定义层

事实上,自定义层和自定义模型类似,因为我们可以直接把一个 Packed 的模型视为是一个 Layer。

举个例子,下面的 CenteredLayer 类通过继承 Module 类自定义了一个将输入减掉均值后输出的层,并将层的计算定义在了 forward 函数里。这个层里不含模型参数。

import torch
from torch import nn

class CenteredLayer(nn.Module):
    def __init__(self, **kwargs):
        super(CenteredLayer, self).__init__(**kwargs)
    def forward(self, x):
        return x - x.mean()

然后,我们就可以实例化这个 Layer,然后做 Forward Feeding.

layer = CenteredLayer()
layer(torch.tensor([1, 2, 3, 4, 5], dtype=torch.float))

Output:
tensor([-2., -1.,  0.,  1.,  2.])
  • 含模型参数的自定义层

之前我们介绍了 Parameter 类其实是 Tensor 的子类,如果一个 TensorParameter,那么它会自动被添加到模型的参数列表里。 // 在这里可以推测这个参数列表是 nn.Module 的数据成员…?

所以在自定义含模型参数的层时,我们应该将参数定义成 Parameter

除了直接定义成 Parameter 类外,还可以使用 ParameterListParameterDict 分别定义参数的列表和字典。

  • ParameterList

ParameterList接收一个 Parameter 实例的列表作为输入然后得到一个参数列表,使用的时候可以用索引来访问某个参数,另外也可以使用 appendextend 在列表后面新增参数。

class MyDense(nn.Module):
    def __init__(self):
        super(MyDense, self).__init__()
        self.params = nn.ParameterList([nn.Parameter(torch.randn(4, 4)) for i in range(3)])
        self.params.append(nn.Parameter(torch.randn(4, 1)))

    def forward(self, x):
        for i in range(len(self.params)):
            x = torch.mm(x, self.params[i])
        return x
net = MyDense()
print(net)

Output:

MyDense(
  (params): ParameterList(
      (0): Parameter containing: [torch.FloatTensor of size 4x4]
      (1): Parameter containing: [torch.FloatTensor of size 4x4]
      (2): Parameter containing: [torch.FloatTensor of size 4x4]
      (3): Parameter containing: [torch.FloatTensor of size 4x1]
  )
)
  • ParameterDict

ParameterDict 接收一个 Parameter 实例的字典作为输入然后得到一个参数字典,然后可以按照字典的规则使用了。

例如使用 update() 新增参数,使用 keys() 返回所有键值,使用 items() 返回所有键值对等等。

class MyDictDense(nn.Module):
    def __init__(self):
        super(MyDictDense, self).__init__()
        self.params = nn.ParameterDict({
                'linear1': nn.Parameter(torch.randn(4, 4)),
                'linear2': nn.Parameter(torch.randn(4, 1))
        })
        self.params.update({'linear3': nn.Parameter(torch.randn(4, 2))}) # 新增

    def forward(self, x, choice='linear1'):
        return torch.mm(x, self.params[choice])

net = MyDictDense()
print(net)

Output:

MyDictDense(
  (params): ParameterDict(
      (linear1): Parameter containing: [torch.FloatTensor of size 4x4]
      (linear2): Parameter containing: [torch.FloatTensor of size 4x1]
      (linear3): Parameter containing: [torch.FloatTensor of size 4x2]
  )
)

于是我们可以根据不同的 key 进行不同的 forward feeding.

x = torch.ones(1, 4)
print(net(x, 'linear1'))
print(net(x, 'linear2'))
print(net(x, 'linear3'))

Output:
tensor([[1.5082, 1.5574, 2.1651, 1.2409]], grad_fn=<MmBackward>)
tensor([[-0.8783]], grad_fn=<MmBackward>)
tensor([[ 2.2193, -1.6539]], grad_fn=<MmBackward>)

读取与存储

到目前为止,我们介绍了如何处理数据以及如何构建、训练和测试深度学习模型。

然而在实际中,我们有时需要把训练好的模型部署到很多不同的设备。

在这种情况下,我们可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。

  • 读写 Tensor

我们可以直接使用 save 函数和 load 函数分别存储和读取 Tensor

save 使用 Python 的 pickle 库将对象进行序列化,然后将序列化的对象保存到硬盘。

使用 save 可以保存各种对象,包括 nn.Module, Tensor, dict 等等。

load 使用 unpickle 工具将 pickle 的对象文件反序列化为内存。

import torch
from torch import nn

x = torch.ones(3)
torch.save(x, 'x.pt')

x2 = torch.load('x.pt')
print(x2) # tensor([1., 1., 1.])

y = torch.zeros(4)
torch.save([x, y], 'xy.pt')
xy_list = torch.load('xy.pt')
print(xy_list) # [tensor([1., 1., 1.]), tensor([0., 0., 0., 0.])]

torch.save({'x': x, 'y': y}, 'xy_dict.pt')
xy = torch.load('xy_dict.pt')
print(xy) # {'x': tensor([1., 1., 1.]), 'y': tensor([0., 0., 0., 0.])}
  • 读写模型

PyTorch 中保存和加载训练模型有两种常见的方法:

  1. 仅保存和加载模型参数(state_dict);
  2. 保存和加载整个模型。

保存和加载模型的 state_dict() 成员(Recommended)

保存:

torch.save(model.state_dict(), PATH) # 推荐的文件后缀名是 pt 或 pth

加载:

model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))

GPU 计算

到目前为止,我们一直在使用 CPU 计算。

对复杂的神经网络和大规模的数据来说,使用 CPU 来计算可能不够高效。

在本节中,我们将介绍如何使用单块 NVIDIA GPU 来计算。

可以通过 nvidia-smi 命令来查看显卡信息。

Wed Jan 26 11:48:28 2022
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 457.49       Driver Version: 457.49       CUDA Version: 11.1     |
|-------------------------------+----------------------+----------------------+
| GPU  Name            TCC/WDDM | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  GeForce GTX 1650   WDDM  | 00000000:01:00.0 Off |                  N/A |
| N/A   43C    P8     4W /  N/A |    359MiB /  4096MiB |      8%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
  • 计算设备

PyTorch 可以指定用来存储和计算的设备,如使用内存的 CPU 或者使用显存的 GPU。

默认情况下,PyTorch 会将数据创建在内存,然后利用 CPU 来计算。

torch.cuda.is_available() 查看 GPU 是否可用:

import torch
from torch import nn
torch.cuda.is_available() # 输出 True

GPU 的相关信息查询:

torch.cuda.device_count() # 查看 GPU 数量,输出 1
torch.cuda.current_device() # 查看当前 GPU 索引号,输出 0
torch.cuda.get_device_name(0) # 根据索引号查看 GPU 名字,输出 'GeForce GTX 1050'

  • Tensor 的 GPU 计算

默认情况下,Tensor 会被存在内存上。因此,之前我们每次打印 Tensor 的时候看不到 GPU 相关标识。

x = torch.tensor([1, 2, 3])
print(x) # tensor([1, 2, 3])

使用 .cuda() 可以将CPU上的 Tensor 转换(复制)到GPU上。

如果有多块GPU,我们用 .cuda(i)来表示第 $i$ 块 GPU 及相应的显存($i$ 从 0 开始)且 cuda(0)cuda() 等价。

x = x.cuda(0)
print(x) # tensor([1, 2, 3], device='cuda:0')

可以通过 Tensordevice 属性来查看该 Tensor 所在的设备。

print(x.device) # device(type='cuda', index=0)

可以直接在创建的时候就指定设备。
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
x = torch.tensor([1, 2, 3], device=device)
# or
x = torch.tensor([1, 2, 3]).to(device)
print(x) # tensor([1, 2, 3], device='cuda:0')

如果对在 GPU 上的数据进行运算,那么结果还是存放在 GPU 上。
y = x**2
print(y) # tensor([1, 4, 9], device='cuda:0')

需要注意的是,存储在不同位置中的数据是不可以直接进行计算的。即存放在 CPU 上的数据不可以直接与存放在 GPU 上的数据进行运算,位于不同 GPU 上的数据也是不能直接进行计算的。

  • 模型的 GPU 计算

Tensor 类似,PyTorch 模型也可以用类似的方式转移到 GPU 上。

  • .cuda(i)
  • .cpu()
  • .to(device)

我们也可以通过检查模型的参数的 device 属性来查看存放模型的设备。

同样的,需要保证模型输入的 Tensor 和模型都在同一设备上,否则会报错。