简单易懂深入PyTorch中RNN、LSTM和GRU使用和理解
目录
torch.nn子模块Recurrent Layers
nn.RNNBase
RNNBase 类描述
torch.nn.RNNBase 是 PyTorch 中用于构建循环神经网络的基类。它是 RNN、LSTM 和 GRU 等更具体的循环神经网络类的基础。下面将详细描述这个类和它的一个主要方法 flatten_parameters。
RNNBase 类的功能和作用
-  初始化: RNNBase 类提供了 RNN, LSTM, 和 GRU 这些子类的基本初始化参数。这包括输入大小( input_size)、隐藏层大小(hidden_size)、层数(num_layers)、使用偏置(bias)、是否以批处理为主(batch_first)、dropout 比例(dropout)、是否双向(bidirectional)等。
-  参数管理: RNNBase 还提供了一些用于参数管理的实用方法,如参数的存储和重置。 
-  注意: RNNBase 类本身并不实现 forward方法。这意味着你不能直接使用 RNNBase 来创建一个模型实例;它只是提供了一个共同的基础结构,用于构建各种类型的循环神经网络。
flatten_parameters() 方法
-  作用: flatten_parameters方法用于优化 RNN 的内部参数存储结构,从而使得 RNN 可以使用更快的代码路径进行计算。
-  技巧: 这个方法尤其在使用 GPU 和启用 cuDNN 时非常有效。在这些条件下,它会重新设置参数数据指针,以优化内存访问模式和提高效率。 
-  注意事项: 当模块不在 GPU 上或者没有启用 cuDNN 时, flatten_parameters将不起作用,也就是说,它在这种情况下是一个无操作(no-op)。
示例代码
下面是一个示例代码,展示了如何使用 LSTM (继承自 RNNBase)并在其中调用 flatten_parameters 方法。
import torch
import torch.nn as nn
# 定义一个简单的 LSTM 网络
class SimpleLSTM(nn.Module):
    def __init__(self, input_size, hidden_size, num_layers):
        super(SimpleLSTM, self).__init__()
        self.lstm = nn.LSTM(input_size, hidden_size, num_layers)
    def forward(self, x):
        self.lstm.flatten_parameters()
        output, (hn, cn) = self.lstm(x)
        return output, hn, cn
# 参数
input_size = 10
hidden_size = 20
num_layers = 2
# 创建模型实例
model = SimpleLSTM(input_size, hidden_size, num_layers)
# 示例输入
x = torch.randn(5, 3, input_size)  # (seq_length, batch, input_size)
# 前向传播
output, hn, cn = model(x)
这段代码展示了如何创建一个简单的 LSTM 网络,它在每次前向传播前调用 flatten_parameters 方法以优化性能。在这里,x 是一个随机生成的输入张量,其维度是序列长度、批大小和输入大小。
nn.RNN
RNN 类描述
torch.nn.RNN 是 PyTorch 中用于构建一个简单的 Elman 循环神经网络(RNN)的类。它可以应用于输入序列,使用 tanh 或 ReLU 作为激活函数。下面将详细描述这个类的功能、参数和注意事项。
RNN 类的功能和作用
-  Elman RNN: 这个类实现了基本的 Elman RNN 架构。对于输入序列中的每个元素,每层 RNN 都会计算一个新的隐藏状态,该状态取决于当前输入和前一时间点的隐藏状态。 
-  激活函数: 可以选择使用 tanh或ReLU作为非线性激活函数。
RNN 类的参数
- input_size: 输入特征的数量。
- hidden_size: 隐藏状态的特征数量。
- num_layers: RNN层的数量。例如,num_layers=2表示两个 RNN 层堆叠在一起。
- nonlinearity: 使用的非线性激活函数,可以是 'tanh'或'relu'。
- bias: 如果为 False,则层不使用偏置权重b_ih和b_hh。
- batch_first: 如果为 True,则输入和输出张量的格式为(batch, seq, feature);否则为(seq, batch, feature)。
- dropout: 如果非零,将在每个 RNN 层的输出上引入一个 Dropout 层,除了最后一层。
- bidirectional: 如果为 True,则变为双向 RNN。
输入和输出
-  输入: input,h_0- input: 形状为- (seq_len, batch, input_size)或- (batch, seq_len, input_size)(如果- batch_first=True)的张量,包含输入序列的特征。
- h_0: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含初始隐藏状态。如果未提供,默认为零。
 
-  输出: output,h_n- output: 包含最后一层 RNN 的输出特征(- h_t)的张量。
- h_n: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含批次中每个元素的最终隐藏状态。
 
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
- 双向 RNN: 对于双向 RNN,前向和后向分别为方向 0 和 1。
- 非确定性问题: 在某些版本的 cuDNN 和 CUDA 上,RNN 函数可能存在非确定性问题。可以通过设置特定的环境变量来强制确定性行为。
- 特定条件下的性能优化: 在特定条件下(如使用 V100 GPU,数据在 GPU 上,数据类型为 torch.float16等),cudnn 可以选择持久算法来提升性能。
示例代码
import torch
import torch.nn as nn
# 创建 RNN 实例
rnn = nn.RNN(input_size=10, hidden_size=20, num_layers=2, nonlinearity='tanh')
# 输入数据
input = torch.randn(5, 3, 10)  # (seq_len, batch, input_size)
h0 = torch.randn(2, 3, 20)     # (num_layers, batch, hidden_size)
# 前向传播
output, hn = rnn(input, h0)
这段代码展示了如何创建一个简单的 RNN 网络并进行前向传播。在这个例子中,input 是一个随机生成的输入张量,其维度是序列长度、批大小和输入大小。h0 是初始隐藏状态。输出 output 包含了每个时间步的隐藏状态,而 hn 是最终的隐藏状态。
nn.LSTM
LSTM 类描述
torch.nn.LSTM 是 PyTorch 中用于构建长短期记忆(LSTM)网络的类。LSTM 是一种特殊类型的循环神经网络(RNN),特别适合处理和预测时间序列数据中的长期依赖关系。
LSTM 类的功能和作用
- 长短期记忆: LSTM 通过引入“门”机制(包括输入门、遗忘门、输出门)来控制信息的保留和遗忘,这有助于解决传统 RNN 在长序列上训练时的梯度消失问题。
LSTM 类的参数
- input_size: 输入特征的数量。
- hidden_size: 隐藏状态的特征数量。
- num_layers: RNN层的数量。例如,num_layers=2表示两个 LSTM 层堆叠在一起。
- bias: 如果为 False,则层不使用偏置权重b_ih和b_hh。
- batch_first: 如果为 True,则输入和输出张量的格式为(batch, seq, feature);否则为(seq, batch, feature)。
- dropout: 如果非零,将在每个 LSTM 层的输出上引入一个 Dropout 层,除了最后一层。
- bidirectional: 如果为 True,则变为双向 LSTM。
- proj_size: 如果大于 0,则使用带有投影的 LSTM。这将改变 LSTM 单元的输出维度和某些权重矩阵的形状。
输入和输出
-  输入: input,(h_0, c_0)- input: 形状为- (seq_len, batch, input_size)或- (batch, seq_len, input_size)(如果- batch_first=True)的张量,包含输入序列的特征。
- h_0: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含初始隐藏状态。
- c_0: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含初始细胞状态。
 
-  输出: output,(h_n, c_n)- output: 包含最后一层 LSTM 的输出特征(- h_t)的张量。
- h_n: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含序列中每个元素的最终隐藏状态。
- c_n: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含序列中每个元素的最终细胞状态。
 
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
- 双向 LSTM: 对于双向 LSTM,h_n和output的含义有所不同。h_n包含最终的前向和后向隐藏状态,而output包含每个时间步的隐藏状态。
- 投影大小: proj_size应小于hidden_size。
- 非确定性问题: 在某些版本的 cuDNN 和 CUDA 上,LSTM 函数可能存在非确定性问题。可以通过设置特定的环境变量来强制确定性行为。
示例代码
import torch
import torch.nn as nn
# 创建 LSTM 实例
lstm = nn.LSTM(input_size=10, hidden_size=20, num_layers=2)
# 输入数据
input = torch.randn(5, 3, 10)  # (seq_len, batch, input_size)
h0 = torch.randn(2, 3, 20)     # (num_layers, batch, hidden_size)
c0 = torch.randn(2, 3, 20)     # (num_layers, batch, hidden_size)
# 前向传播
output, (hn, cn) = lstm(input, (h0, c0))
这段代码展示了如何创建一个 LSTM 网络并进行前向传播。在这个例子中,input 是一个随机生成的输入张量,其维度是序列长度、批大小和输入大小。h0 和 c0 分别是初始隐藏状态和细胞状态。输出 output 包含了每个时间步的隐藏状态,而 (hn, cn) 是最终的隐藏状态和细胞状态。
nn.GRU
GRU 类描述
torch.nn.GRU 是 PyTorch 中用于构建门控循环单元(GRU)网络的类。GRU 是一种循环神经网络,类似于 LSTM,但结构更为简单,用于处理序列数据。
GRU 类的功能和作用
- 门控机制: GRU 通过引入重置门(reset gate)和更新门(update gate)来控制信息的流动,这有助于捕捉序列数据中的长期依赖关系,并解决传统 RNN 的梯度消失问题。
GRU 类的参数
- input_size: 输入特征的数量。
- hidden_size: 隐藏状态的特征数量。
- num_layers: RNN层的数量。例如,num_layers=2表示两个 GRU 层堆叠在一起。
- bias: 如果为 False,则层不使用偏置权重b_ih和b_hh。
- batch_first: 如果为 True,则输入和输出张量的格式为(batch, seq, feature);否则为(seq, batch, feature)。
- dropout: 如果非零,将在每个 GRU 层的输出上引入一个 Dropout 层,除了最后一层。
- bidirectional: 如果为 True,则变为双向 GRU。
输入和输出
-  输入: input,h_0- input: 形状为- (seq_len, batch, input_size)或- (batch, seq_len, input_size)(如果- batch_first=True)的张量,包含输入序列的特征。
- h_0: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含初始隐藏状态。
 
-  输出: output,h_n- output: 包含最后一层 GRU 的输出特征(- h_t)的张量。
- h_n: 形状为- (num_layers * num_directions, batch, hidden_size)的张量,包含序列中每个元素的最终隐藏状态。
 
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
- 双向 GRU: 对于双向 GRU,h_n和output的含义有所不同。h_n包含最终的前向和后向隐藏状态,而output包含每个时间步的隐藏状态。
- PyTorch中的GRU与原始论文的差异: PyTorch 中 GRU 的实现与原始论文在计算新门(new gate)时略有不同,这种差异是为了提高效率。
- 非确定性问题: 在某些版本的 cuDNN 和 CUDA 上,GRU 函数可能存在非确定性问题。可以通过设置特定的环境变量来强制确定性行为。
示例代码
import torch
import torch.nn as nn
# 创建 GRU 实例
gru = nn.GRU(input_size=10, hidden_size=20, num_layers=2)
# 输入数据
input = torch.randn(5, 3, 10)  # (seq_len, batch, input_size)
h0 = torch.randn(2, 3, 20)     # (num_layers, batch, hidden_size)
# 前向传播
output, hn = gru(input, h0)
?这段代码展示了如何创建一个 GRU 网络并进行前向传播。在这个例子中,input 是一个随机生成的输入张量,其维度是序列长度、批大小和输入大小。h0 是初始隐藏状态。输出 output 包含了每个时间步的隐藏状态,而 hn 是最终的隐藏状态。
nn.RNNCell
RNNCell 类描述
torch.nn.RNNCell 是 PyTorch 中的一个模块,用于实现单个 Elman RNN 单元。这个类比完整的 RNN 类更为基础,它处理的是序列中的单个时间步,而不是整个序列。
RNNCell 类的功能和作用
- 单时间步处理: RNNCell 适用于在自定义循环中一次处理一个时间步,这提供了对序列处理过程的更细粒度控制。
RNNCell 类的参数
- input_size (int): 输入特征的数量。
- hidden_size (int): 隐藏状态的特征数量。
- bias (bool): 如果为 False,则单元不使用偏置权重b_ih和b_hh。默认为True。
- nonlinearity (str): 使用的非线性激活函数,可以是 'tanh'或'relu'。默认为'tanh'。
输入和输出
-  输入: input,hidden- input: 包含输入特征的张量。
- hidden: 包含初始隐藏状态的张量。如果未提供,默认为零。
 
-  输出: h'- h': 形状为- (batch, hidden_size)的张量,包含批次中每个元素的下一个隐藏状态。
 
形状
- input: 形状为 (N, H_in)或(H_in)的张量,其中H_in = input_size。
- hidden: 形状为 (N, H_out)或(H_out)的张量,其中H_out = hidden_size。如果未提供,默认为零。
- output: 形状为 (N, H_out)或(H_out)的张量,包含下一个隐藏状态。
变量
- weight_ih (torch.Tensor): 学习得到的输入-隐藏权重,形状为(hidden_size, input_size)。
- weight_hh (torch.Tensor): 学习得到的隐藏-隐藏权重,形状为(hidden_size, hidden_size)。
- bias_ih: 学习得到的输入-隐藏偏置,形状为 (hidden_size)。
- bias_hh: 学习得到的隐藏-隐藏偏置,形状为 (hidden_size)。
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
示例代码
import torch
import torch.nn as nn
# 创建 RNNCell 实例
rnn = nn.RNNCell(10, 20)
# 输入数据
input = torch.randn(6, 3, 10)  # (time_steps, batch, input_size)
hx = torch.randn(3, 20)        # (batch, hidden_size)
# 模拟时间步循环
output = []
for i in range(6):
    hx = rnn(input[i], hx)
    output.append(hx)
这段代码展示了如何使用 RNNCell 来处理一个序列。在这个例子中,input 是一个随机生成的输入张量,其维度是时间步、批大小和输入大小。hx 是初始隐藏状态。循环通过逐个时间步调用 RNNCell 来更新 hx,并将每个时间步的输出收集到 output 列表中。
nn.LSTMCell
LSTMCell 类描述
torch.nn.LSTMCell 是 PyTorch 中用于构建单个长短期记忆(LSTM)单元的类。与 LSTM 类处理整个序列不同,LSTMCell 只处理序列中的单个时间步。
LSTMCell 类的功能和作用
- 单时间步处理: LSTMCell 适用于在自定义循环中逐个时间步处理数据,这提供了对序列处理过程的更细粒度控制。
- LSTM机制: 同 LSTM类似,LSTMCell 使用输入门、遗忘门、输出门和细胞状态来控制和维持长期依赖关系。
LSTMCell 类的参数
- input_size (int): 输入特征的数量。
- hidden_size (int): 隐藏状态的特征数量。
- bias (bool): 如果为 False,则单元不使用偏置权重b_ih和b_hh。默认为True。
输入和输出
-  输入: input,(h_0, c_0)- input: 形状为- (batch, input_size)或- (input_size)的张量,包含输入特征。
- h_0: 形状为- (batch, hidden_size)或- (hidden_size)的张量,包含初始隐藏状态。
- c_0: 形状为- (batch, hidden_size)或- (hidden_size)的张量,包含初始细胞状态。
 
-  输出: (h_1, c_1)- h_1: 形状为- (batch, hidden_size)或- (hidden_size)的张量,包含下一个隐藏状态。
- c_1: 形状为- (batch, hidden_size)或- (hidden_size)的张量,包含下一个细胞状态。
 
变量
- weight_ih (torch.Tensor): 学习得到的输入-隐藏权重,形状为(4*hidden_size, input_size)。
- weight_hh (torch.Tensor): 学习得到的隐藏-隐藏权重,形状为(4*hidden_size, hidden_size)。
- bias_ih: 学习得到的输入-隐藏偏置,形状为 (4*hidden_size)。
- bias_hh: 学习得到的隐藏-隐藏偏置,形状为 (4*hidden_size)。
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
- 不同的设备精度: 在某些 ROCm 设备上,使用 float16 输入时,此模块的反向传播可能使用不同的精度。
示例代码
import torch
import torch.nn as nn
# 创建 LSTMCell 实例
lstm_cell = nn.LSTMCell(10, 20)  # (input_size, hidden_size)
# 输入数据
input = torch.randn(2, 3, 10)  # (time_steps, batch, input_size)
hx = torch.randn(3, 20)        # (batch, hidden_size)
cx = torch.randn(3, 20)        # (batch, hidden_size)
# 模拟时间步循环
output = []
for i in range(input.size()[0]):
    hx, cx = lstm_cell(input[i], (hx, cx))
    output.append(hx)
# 将输出堆叠起来
output = torch.stack(output, dim=0)
?这段代码展示了如何使用 LSTMCell 来处理一个序列。在这个例子中,input 是一个随机生成的输入张量,其维度是时间步、批大小和输入大小。hx 和 cx 分别是初始隐藏状态和细胞状态。循环通过逐个时间步调用 LSTMCell 来更新 hx 和 cx,并将每个时间步的隐藏状态收集到 output 列表中,最后将这些输出堆叠起来。
nn.GRUCell
GRUCell 类描述
torch.nn.GRUCell 是 PyTorch 中用于构建单个门控循环单元(GRU)的类。与完整的 GRU 类不同,GRUCell 专门处理序列中的单个时间步。
GRUCell 类的功能和作用
- 单时间步处理: GRUCell 用于在自定义循环中逐步处理数据,允许在每个时间步进行更精细的控制。
- GRU机制: 与 GRU类似,GRUCell 使用更新门(update gate)和重置门(reset gate)来控制信息的流动,有效地捕捉序列数据中的长期依赖关系。
GRUCell 类的参数
- input_size (int): 输入特征的数量。
- hidden_size (int): 隐藏状态的特征数量。
- bias (bool): 如果为 False,则单元不使用偏置权重b_ih和b_hh。默认为True。
输入和输出
-  输入: input,hidden- input: 包含输入特征的张量。
- hidden: 包含初始隐藏状态的张量。如果未提供,默认为零。
 
-  输出: h'- h': 包含批次中每个元素的下一个隐藏状态的张量。
 
形状
- input: 形状为 (N, H_in)或(H_in)的张量,其中H_in = input_size。
- hidden: 形状为 (N, H_out)或(H_out)的张量,其中H_out = hidden_size。如果未提供,默认为零。
- output: 形状为 (N, H_out)或(H_out)的张量,包含下一个隐藏状态。
变量
- weight_ih (torch.Tensor): 学习得到的输入-隐藏权重,形状为(3*hidden_size, input_size)。
- weight_hh (torch.Tensor): 学习得到的隐藏-隐藏权重,形状为(3*hidden_size, hidden_size)。
- bias_ih: 学习得到的输入-隐藏偏置,形状为 (3*hidden_size)。
- bias_hh: 学习得到的隐藏-隐藏偏置,形状为 (3*hidden_size)。
注意事项
- 权重和偏置的初始化: 所有权重和偏置都从均匀分布 U(-k, k)初始化,其中k = 1 / hidden_size。
- 不同的设备精度: 在某些 ROCm 设备上,使用 float16 输入时,此模块的反向传播可能使用不同的精度。
示例代码
import torch
import torch.nn as nn
# 创建 GRUCell 实例
gru_cell = nn.GRUCell(10, 20)  # (input_size, hidden_size)
# 输入数据
input = torch.randn(6, 3, 10)  # (time_steps, batch, input_size)
hx = torch.randn(3, 20)        # (batch, hidden_size)
# 模拟时间步循环
output = []
for i in range(6):
    hx = gru_cell(input[i], hx)
    output.append(hx)
这段代码展示了如何使用 GRUCell 来处理一个序列。在这个例子中,input 是一个随机生成的输入张量,其维度是时间步、批大小和输入大小。hx 是初始隐藏状态。循环通过逐个时间步调用 GRUCell 来更新 hx,并将每个时间步的输出收集到 output 列表中。
总结
?????????在这篇博客中,我们深入探索了 PyTorch 中的循环神经网络(RNN)相关的几个关键类:RNNBase, RNN, LSTM, GRU 及其对应的单元格版本 RNNCell, LSTMCell, GRUCell。每个类的功能、作用、参数和使用方法都得到了详细的解释和示例代码的支持。从基础的 RNN 架构到更复杂的 LSTM 和 GRU 结构,本文提供了深入了解这些强大的序列模型工具的机会,同时也展示了如何在实际场景中应用这些模型。这些类不仅对于理解序列数据的基本动态至关重要,而且在许多先进的深度学习应用中发挥着核心作用。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!