【自然语言处置惩罚】Encoder-Decoder架构

打印 上一主题 下一主题

主题 813|帖子 813|积分 2439

Encoder-Decoder是一种神经网络架构,广泛应用于需要将一个序列映射到另一个序列的任务中,最典范的应用是机器翻译。它的焦点思想是通过两个独立但相互关联的神经网络来处置惩罚输入序列和天生输出序列。
1. 结构

Encoder-Decoder主要由两个部分组成:
1.1 Encoder(编码器)

编码器的任务是将输入序列编码成一个固定长度的向量表示(即上下文向量)。该部分通常由递归神经网络(RNN)、是非时影象网络(LSTM)或门控循环单元(GRU)组成,负责逐步读取输入序列。


  • 编码器逐个处置惩罚输入序列中的元素(如文本中的单词),并将每一步的信息编码进其隐蔽状态。
  • 最后一步的隐蔽状态将作为编码器的输出,即上下文向量,它总结了整个输入序列的信息。
1.2 Decoder(解码器)

解码器接收从编码器传递过来的上下文向量,并根据该向量天生输出序列。解码器也是由RNN、LSTM或GRU等神经网络结构组成,它使用上下文向量以及之前天生的输出序列来推测接下来的输出元素。


  • 解码器逐步天生输出序列,在每个时间步天生一个输出。
  • 每个时间步解码器的输入是前一步天生的输出以及隐蔽状态。
2. 工作流程


  • 编码阶段:编码器逐步处置惩罚输入序列,将其转换为隐蔽状态,最后将整个输入序列的信息编码为固定长度的上下文向量。
  • 解码阶段:解码器接收上下文向量,并逐步天生目标序列。初始输入通常是特殊的开始标记 <SOS>,然后解码器在每个时间步天生一个新的输出元素。
  • 推测下一个输出:每一个新的输出都是基于上下文向量和先前天生的输出来推测的。
机器翻译代码示例:

  1. import torch
  2. import torch.nn as nn
  3. import torch.optim as optim
  4. import random
  5. # Encoder(编码器)
  6. class Encoder(nn.Module):
  7.     def __init__(self, input_size, hidden_size, num_layers=1):
  8.         super(Encoder, self).__init__()
  9.         self.hidden_size = hidden_size
  10.         self.num_layers = num_layers
  11.         self.embedding = nn.Embedding(input_size, hidden_size)
  12.         self.lstm = nn.LSTM(hidden_size, hidden_size, num_layers)
  13.     def forward(self, input_seq, hidden_state):
  14.         # input_seq shape: (seq_len, batch_size)
  15.         embedded = self.embedding(input_seq)
  16.         # embedded shape: (seq_len, batch_size, hidden_size)
  17.         output, (hidden, cell) = self.lstm(embedded, hidden_state)
  18.         return output, (hidden, cell)
  19.     def init_hidden(self, batch_size, device):
  20.         return (torch.zeros(self.num_layers, batch_size, self.hidden_size).to(device),
  21.                 torch.zeros(self.num_layers, batch_size, self.hidden_size).to(device))
  22. # Decoder(解码器)
  23. class Decoder(nn.Module):
  24.     def __init__(self, output_size, hidden_size, num_layers=1):
  25.         super(Decoder, self).__init__()
  26.         self.hidden_size = hidden_size
  27.         self.num_layers = num_layers
  28.         self.embedding = nn.Embedding(output_size, hidden_size)
  29.         self.lstm = nn.LSTM(hidden_size, hidden_size, num_layers)
  30.         self.fc = nn.Linear(hidden_size, output_size)
  31.         self.softmax = nn.LogSoftmax(dim=1)
  32.     def forward(self, input_step, hidden_state):
  33.         # input_step shape: (1, batch_size) [decoding one time step at a time]
  34.         embedded = self.embedding(input_step)
  35.         # embedded shape: (1, batch_size, hidden_size)
  36.         output, (hidden, cell) = self.lstm(embedded, hidden_state)
  37.         # output shape: (1, batch_size, hidden_size)
  38.         output = self.fc(output.squeeze(0))
  39.         # output shape: (batch_size, output_size)
  40.         output = self.softmax(output)
  41.         return output, (hidden, cell)
  42. # Seq2Seq 模型
  43. class Seq2Seq(nn.Module):
  44.     def __init__(self, encoder, decoder, device):
  45.         super(Seq2Seq, self).__init__()
  46.         self.encoder = encoder
  47.         self.decoder = decoder
  48.         self.device = device
  49.     def forward(self, input_seq, target_seq, teacher_forcing_ratio=0.5):
  50.         batch_size = input_seq.size(1)
  51.         target_len = target_seq.size(0)
  52.         target_vocab_size = self.decoder.fc.out_features
  53.         
  54.         # 初始化解码器的输出张量
  55.         outputs = torch.zeros(target_len, batch_size, target_vocab_size).to(self.device)
  56.         # 编码器的隐藏状态初始化
  57.         hidden = self.encoder.init_hidden(batch_size, self.device)
  58.         
  59.         # 输入序列通过编码器
  60.         encoder_output, hidden = self.encoder(input_seq, hidden)
  61.         # 解码器的第一个输入是特殊的 <SOS> 标记
  62.         decoder_input = target_seq[0, :]
  63.         # 解码每个时间步
  64.         for t in range(1, target_len):
  65.             decoder_output, hidden = self.decoder(decoder_input.unsqueeze(0), hidden)
  66.             outputs[t] = decoder_output
  67.             # Teacher forcing: 有一定概率使用目标序列作为下一步的输入
  68.             teacher_force = random.random() < teacher_forcing_ratio
  69.             top1 = decoder_output.argmax(1)
  70.             decoder_input = target_seq[t] if teacher_force else top1
  71.         
  72.         return outputs
  73. # 数据预处理
  74. # 简单的英语到法语的句子对示例
  75. pairs = [
  76.     ["i am a student", "je suis un étudiant"],
  77.     ["he is a teacher", "il est un professeur"],
  78.     ["she loves apples", "elle aime les pommes"],
  79.     ["we are friends", "nous sommes amis"]
  80. ]
  81. # 构建词汇表
  82. def build_vocab(sentences):
  83.     vocab = set()
  84.     for sentence in sentences:
  85.         for word in sentence.split(' '):
  86.             vocab.add(word)
  87.     word2idx = {word: idx for idx, word in enumerate(vocab, start=2)}
  88.     word2idx['<PAD>'] = 0  # 填充符
  89.     word2idx['<SOS>'] = 1  # 开始符
  90.     word2idx['<EOS>'] = 2  # 结束符
  91.     idx2word = {idx: word for word, idx in word2idx.items()}
  92.     return word2idx, idx2word
  93. # 为英语和法语句子构建词汇表
  94. eng_sentences = [pair[0] for pair in pairs]
  95. fra_sentences = [pair[1] for pair in pairs]
  96. eng_word2idx, eng_idx2word = build_vocab(eng_sentences)
  97. fra_word2idx, fra_idx2word = build_vocab(fra_sentences)
  98. # 将句子转换为索引序列
  99. def sentence_to_indices(sentence, word2idx):
  100.     return [word2idx[word] for word in sentence.split(' ')] + [word2idx['<EOS>']]  # 句尾添加结束符
  101. input_seqs = [sentence_to_indices(pair[0], eng_word2idx) for pair in pairs]
  102. target_seqs = [sentence_to_indices(pair[1], fra_word2idx) for pair in pairs]
  103. # 填充序列到相同长度
  104. def pad_sequences(sequences, max_len, padding_value=0):
  105.     padded_sequences = torch.zeros((len(sequences), max_len), dtype=torch.long)
  106.     for i, seq in enumerate(sequences):
  107.         padded_sequences[i, :len(seq)] = torch.tensor(seq, dtype=torch.long)
  108.     return padded_sequences
  109. # 找到最长句子的长度用于填充
  110. input_max_len = max([len(seq) for seq in input_seqs])
  111. target_max_len = max([len(seq) for seq in target_seqs])
  112. input_seqs_padded = pad_sequences(input_seqs, input_max_len)
  113. target_seqs_padded = pad_sequences(target_seqs, target_max_len)
  114. from torch.utils.data import DataLoader, TensorDataset
  115. # 创建数据加载器
  116. batch_size = 2
  117. dataset = TensorDataset(input_seqs_padded, target_seqs_padded)
  118. data_loader = DataLoader(dataset, batch_size=batch_size, shuffle=True)
  119. # 模型训练
  120. # 假设 input_size 和 output_size 是词汇表的大小
  121. input_size = len(eng_word2idx)
  122. output_size = len(fra_word2idx)
  123. hidden_size = 256
  124. num_layers = 1
  125. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  126. # 初始化编码器、解码器和 Seq2Seq 模型
  127. encoder = Encoder(input_size, hidden_size, num_layers).to(device)
  128. decoder = Decoder(output_size, hidden_size, num_layers).to(device)
  129. seq2seq = Seq2Seq(encoder, decoder, device).to(device)
  130. # 定义损失函数和优化器
  131. criterion = nn.CrossEntropyLoss(ignore_index=fra_word2idx['<PAD>'])
  132. optimizer = optim.Adam(seq2seq.parameters(), lr=0.001)
  133. # 训练模型
  134. num_epochs = 100
  135. for epoch in range(num_epochs):
  136.     for input_batch, target_batch in data_loader:
  137.         input_batch, target_batch = input_batch.transpose(0, 1).to(device), target_batch.transpose(0, 1).to(device)
  138.         
  139.         optimizer.zero_grad()
  140.         
  141.         hidden = seq2seq.encoder.init_hidden(batch_size=input_batch.size(1), device=device)
  142.         # 前向传播
  143.         output = seq2seq(input_batch, target_batch)
  144.         
  145.         # 计算损失
  146.         output_dim = output.shape[-1]
  147.         loss = criterion(output[1:].reshape(-1, output_dim), target_batch[1:].reshape(-1))
  148.         
  149.         # 反向传播和优化
  150.         loss.backward()
  151.         optimizer.step()
  152.     if epoch % 10 == 0:
  153.         print(f'Epoch: {epoch}, Loss: {loss.item()}')
  154. # 模型测试
  155. def translate(sentence, seq2seq, max_length=10):
  156.     # 将输入句子转换为索引
  157.     input_seq = sentence_to_indices(sentence, eng_word2idx)
  158.     input_seq = torch.tensor(input_seq, dtype=torch.long).unsqueeze(1).to(device)
  159.     # 编码器的隐藏状态初始化
  160.     hidden = seq2seq.encoder.init_hidden(1, device)
  161.     encoder_output, hidden = seq2seq.encoder(input_seq, hidden)
  162.     # 解码器的第一个输入是 <SOS>
  163.     decoder_input = torch.tensor([fra_word2idx['<SOS>']], dtype=torch.long).to(device)
  164.     translated_sentence = []
  165.     for _ in range(max_length):
  166.         decoder_output, hidden = seq2seq.decoder(decoder_input.unsqueeze(0), hidden)
  167.         top1 = decoder_output.argmax(1)
  168.         translated_word = fra_idx2word[top1.item()]
  169.         if translated_word == '<EOS>':
  170.             break
  171.         translated_sentence.append(translated_word)
  172.         decoder_input = top1  # 下一步的输入是当前步的输出
  173.     return ' '.join(translated_sentence)
  174. # 示例翻译
  175. if __name__ == "__main__":
  176.     while True:
  177.         # 等待用户输入
  178.         user_input = input("请输入要翻译的句子 (输入 'q' 退出): ")
  179.         # 退出程序的条件
  180.         if user_input.lower() == 'q':
  181.             print("退出翻译程序")
  182.             break
  183.         
  184.         # 调用翻译函数进行翻译
  185.         translated_sentence = translate(user_input, seq2seq)
  186.         print("翻译结果:", translated_sentence)
复制代码


  • 训练时:Seq2Seq的forward() 函数用于批量处置惩罚源和目标序列,它依赖于源序列(颠末Encoder)以及目标序列(逐步传递给Decoder),并且通常会使用西席强制(Teacher Forcing),即在训练时,我们将目标序列的前一个真实值作为Decoder的输入。
  • 推理时(推测时):在推理时,我们不再有目标序列的全部真实值。我们只能使用Decoder本身天生的每个词作为下一步的输入,这种方式被称为自回归天生。因此,推理时需要逐步使用Decoder天生每个单词,而不是一次性传入目标序列。
3. Attention机制的引入

传统的Encoder-Decoder有一个问题:当输入序列较长时,将整个输入信息压缩成一个固定长度的上下文向量可能导致信息丢失。这时,Attention机制被引入,用来在解码过程中动态地关注输入序列的差别部分,而不是仅依赖固定的上下文向量。


  • Attention机制允许解码器在天生输出时对输入序列的差别位置给予差别的权重。
  • 它能够提升长序列任务(如长文本翻译)的性能。
4. 典范应用



  • 机器翻译:如将英文句子翻译为中文句子。
  • 图像描述天生:将输入图像编码为向量表示,然后解码为一段笔墨描述。
  • 文本摘要:输入长文本,输出其简短摘要。
  • 对话天生:输入对话上下文,天生合适的回复。
5. Transformer架构的发展

尽管传统的Encoder-Decoder基于RNN、LSTM等架构,但在近几年,Transformer成为了主流。Transformer使用完全的Attention机制,不依赖递归结构,可以并行处置惩罚数据,因此效率更高,性能更好。


  • Transformer本质上也是一种Encoder-Decoder架构,但它用多头自留意力机制取代了RNN等递归结构。
  • Transformer的代表性应用就是BERTGPT等预训练语言模型。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

光之使者

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表