单向/双向,单层/多层RNN输入输出维度问题
单向/双向,单层/多层RNN输入输出维度问题
- RNN
- 单层单向RNN
- Rnn Cell
- Rnn
- 双层单向RNN
- 单层双向RNN
- 双层双向RNN
RNN
单层单向RNN
Rnn Cell
循环神经网络最原始的Simple RNN实现如下图所示:

下面写出单个时间步对应的Rnn Cell计算公式:

如果用矩阵运算视角来看待的话,单个时间步对应的Rnn Cell计算过程如下图所示:

代码示例如下:
import torchbatch_size = 2 # 批量大小
seq_len = 3 # 序列长度(单个RNN层包含的Time Step数量)
input_size = 4 # 输入数据的维度
hidden_size = 2 # 隐藏层的维度cell = torch.nn.RNNCell(input_size=input_size, hidden_size=hidden_size)
dataset = torch.rand(seq_len, batch_size, input_size)
hidden = torch.zeros(batch_size, hidden_size)# 使用Rnn Cell加循环实现一个Rnn层处理一批输入序列的过程
for idx, input in enumerate(dataset):print('='*10,idx,'='*10)print('input size:', input.shape)hidden = cell(input, hidden)print('outputs size:', hidden.shape)print(hidden)
输出:
========== 0 ==========
input size: torch.Size([2, 4])
outputs size: torch.Size([2, 2])
tensor([[ 0.1077, -0.7972],[-0.1070, -0.9517]], grad_fn=<TanhBackward0>)
========== 1 ==========
input size: torch.Size([2, 4])
outputs size: torch.Size([2, 2])
tensor([[-0.4524, -0.8874],[ 0.0443, -0.9716]], grad_fn=<TanhBackward0>)
========== 2 ==========
input size: torch.Size([2, 4])
outputs size: torch.Size([2, 2])
tensor([[-0.2941, -0.9751],[-0.3554, -0.9399]], grad_fn=<TanhBackward0>)
图解运算过程:
- 输入数据采用三维来表示 (序列长度,批量大小,输入向量维度) , 将序列长度作为第0维是因为这样可以很方便的将同属于一个Time Step处理的批次序列数据第i个词一次性送入Rnn Cell中处理。


- 隐藏层输出的向量为Rnn Cell对当前Time Step输入的 x t x_{t} xt和 h t − 1 h_{t-1} ht−1做完信息融合和空间变换后得到的结果,其维度可以保持与输入 x t x_{t} xt一致或者降低维度。

- 由Rnn Cell内的权重矩阵 W i h W_{ih} Wih负责完成对输入 x t x_{t} xt的线性变换,使其由输入维度input_size变为hidden_size; 然后通过加法运算与同样处理的 h t − 1 h_{t-1} ht−1做信息融合,再通过tanh激活做一次非线性变换,增强模型拟合数据的能力。

大家重点关注Rnn Cell如何在一个Time Step内同时处理一批数据的过程。
关于Rnn Cell内部具体的运算过程还可以简化为一次矩阵乘法运算完成,如下图所示:

Rnn
我们将上文用Rnn Cell加循环实现的例子通过Rnn层来实现一遍:
import torchbatch_size = 2 # 批量大小
seq_len = 3 # 序列长度(单个RNN层包含的Time Step数量)
input_size = 4 # 输入数据的维度
hidden_size = 2 # 隐藏层的维度rnn = torch.nn.RNN(input_size=input_size, hidden_size=hidden_size,num_layers=1)
dataset = torch.rand(seq_len, batch_size, input_size)
hidden = torch.zeros(1,batch_size, hidden_size) # 此处1为RNN层数,下文会讲out, hidden = rnn(dataset, hidden)
print('output size:', out.shape)
print('Hidden size:', hidden.shape)
输出:
output size: torch.Size([3, 2, 2])
Hidden size: torch.Size([1, 2, 2])
Rnn可以一次性处理完输入的批量序列数据,并返回处理后的结果和最后一个Time Step隐藏层的输出结果,返回结果的维度解释如下:
- out:(序列长度,批量大小,隐藏层维度)
- hidden: (隐藏层层数,批量大小,隐藏层维度)

上图中按照Time Step维度展开的Rnn Cell为同一个实例对象,也就是上文中最开始给出的Rnn Cell加循环的图解过程,所以不同Time Step处理时涉及到的权重矩阵是共享的。
双层单向RNN
双层单向RNN处理的流程如下图所示:

我们下面通过代码来验证一下:
import torchbatch_size = 2 # 批量大小
seq_len = 3 # 序列长度(单个RNN层包含的Time Step数量)
input_size = 4 # 输入数据的维度
hidden_size = 2 # 隐藏层的维度rnn = torch.nn.RNN(input_size=input_size, hidden_size=hidden_size,num_layers=2)
dataset = torch.rand(seq_len, batch_size, input_size)
hidden = torch.zeros(2,batch_size, hidden_size) # 此处1为RNN层数,下文会讲out, hidden = rnn(dataset, hidden)
print('output size:', out.shape)
print('Hidden size:', hidden.shape)
输出:
output size: torch.Size([3, 2, 2])
Hidden size: torch.Size([2, 2, 2])
改为双层RNN后,我们初始化输入的隐藏层向量要同时为层1的RNN和层2的RNN都提供,因此hidden的第一维num_layers要变为2; 同理,我们最终处理完毕后,会得到层1和层2的最后一个Time Step的输出,因此返回的hidden维度第一维也是2。
- out:(序列长度,批量大小,隐藏层维度)
- hidden: (隐藏层层数,批量大小,隐藏层维度)
单层双向RNN
单层双向RNN处理的流程如下图所示:

我们下面通过代码来验证一下:
import torchbatch_size = 2 # 批量大小
seq_len = 3 # 序列长度(单个RNN层包含的Time Step数量)
input_size = 4 # 输入数据的维度
hidden_size = 2 # 隐藏层的维度rnn = torch.nn.RNN(input_size=input_size, hidden_size=hidden_size,num_layers=1,bidirectional=True)
dataset = torch.rand(seq_len, batch_size, input_size)
hidden = torch.zeros(2,batch_size, hidden_size) # 此处1为RNN层数,下文会讲out, hidden = rnn(dataset, hidden)
print('output size:', out.shape)
print('Hidden size:', hidden.shape)
输出:
output size: torch.Size([3, 2, 4])
Hidden size: torch.Size([2, 2, 2])
当我们考虑双向时,最终输出得到的out和hidden维度都会发生改变:
- out:(序列长度,批量大小,隐藏层维度*2)
- hidden: (隐藏层层数*2,批量大小,隐藏层维度)
当设置RNN为双向后,在每一个Time Step我们会得到正向和反向计算的两份输出,因此每个Time Step隐藏层的输出为正向和反向输出的concat,这里的concat运算过程如下所示:
# 维度: (序列长度,批量大小,隐藏层维度) --> [3,2,4]
# 假设正向RNN输出如下
forward_outputs = torch.tensor([[[0.1, 0.2, 0.3, 0.4], [0.5, 0.6, 0.7, 0.8]], # t=0[[0.9, 1.0, 1.1, 1.2], [1.3, 1.4, 1.5, 1.6]], # t=1[[1.7, 1.8, 1.9, 2.0], [2.1, 2.2, 2.3, 2.4]] # t=2
])
# 假设反向RNN输出如下
backward_outputs = torch.tensor([[[2.5, 2.6, 2.7, 2.8], [2.9, 3.0, 3.1, 3.2]], # t=0[[3.3, 3.4, 3.5, 3.6], [3.7, 3.8, 3.9, 4.0]], # t=1[[4.1, 4.2, 4.3, 4.4], [4.5, 4.6, 4.7, 4.8]] # t=2
])
# 拼接(concatenation)后的结果如下
concatenated_outputs = torch.tensor([[[0.1, 0.2, 0.3, 0.4, 2.5, 2.6, 2.7, 2.8], [0.5, 0.6, 0.7, 0.8, 2.9, 3.0, 3.1, 3.2]], # t=0[[0.9, 1.0, 1.1, 1.2, 3.3, 3.4, 3.5, 3.6], [1.3, 1.4, 1.5, 1.6, 3.7, 3.8, 3.9, 4.0]], # t=1[[1.7, 1.8, 1.9, 2.0, 4.1, 4.2, 4.3, 4.4], [2.1, 2.2, 2.3, 2.4, 4.5, 4.6, 4.7, 4.8]] # t=2
])
同理,采用双向RNN后,正向和反向的最后一个Time Step计算完后都会得到一个hidden输出,因此最终计算完返回的hidden第一维是2;我们初始化时也要同时给出正向和反向RNN的hidden,因此初始化输入的hidden第一维也是2。
双层双向RNN
双层双向RNN处理流程如下:
- 第一层双向 RNN:
- 正向 RNN 从序列的开始到结束处理数据。
- 反向 RNN 从序列的结束到开始处理数据。
- 两个方向的输出在每个时间步上进行拼接,形成第一层的输出。
- 第二层双向 RNN:
- 第二层的输入是第一层的输出。
- 第二层的正向 RNN 从第一层的输出序列的开始到结束处理数据。
- 第二层的反向 RNN 从第一层的输出序列的结束到开始处理数据。
- 两个方向的输出在每个时间步上进行拼接,形成第二层的输出。
我们下面通过代码来验证一下:
import torchbatch_size = 2 # 批量大小
seq_len = 3 # 序列长度(单个RNN层包含的Time Step数量)
input_size = 4 # 输入数据的维度
hidden_size = 2 # 隐藏层的维度rnn = torch.nn.RNN(input_size=input_size, hidden_size=hidden_size,num_layers=2,bidirectional=True)
dataset = torch.rand(seq_len, batch_size, input_size)
hidden = torch.zeros(2*2,batch_size, hidden_size) # 此处1为RNN层数,下文会讲out, hidden = rnn(dataset, hidden)
print('output size:', out.shape)
print('Hidden size:', hidden.shape)
通过断点debug可以看到rnn对象实例内部各层权重矩阵的维度:

重点关注weight_ih_l1 和 weight_ih_l1_reverse ,这两个权重矩阵分别为第二层RNN的正向和反向层对应的输入数据的权重矩阵,可以看到其维度为[4,2] (X*W.T这里给出W转置后的维度) , 说明此处单个Time Step输入第二层Rnn Cell的输入数据维度为[2,4],由此可推断输入的为第一层双向RNN拼接输出后结果。
输出:
output size: torch.Size([3, 2, 4])
Hidden size: torch.Size([4, 2, 2])
这里output输出的维度和单层双向RNN的结果一致,这是因为第一层RNN的输出结果维度和初始input数据维度相同。
hidden第一维输出变成了4,这是因为每一个双向RNN层都会在最后一个Time Step提供正向和反向两个hidden输出,而因为我们这里采用了两层双向RNN,因此最终会得到四个hidden输出。
相关文章:
单向/双向,单层/多层RNN输入输出维度问题
单向/双向,单层/多层RNN输入输出维度问题 RNN单层单向RNNRnn CellRnn 双层单向RNN单层双向RNN双层双向RNN RNN 单层单向RNN Rnn Cell 循环神经网络最原始的Simple RNN实现如下图所示: 下面写出单个时间步对应的Rnn Cell计算公式: 如果用矩阵运算视角来看待的话&…...
chromium-mojo
https://chromium.googlesource.com/chromium/src//refs/heads/main/mojo/README.md 相关类:https://zhuanlan.zhihu.com/p/426069459 Core:https://source.chromium.org/chromium/chromium/src//main:mojo/core/README.md;bpv1;bpt0 embedder:https://source.chr…...
ZooKeeper 的典型应用场景:从概念到实践
引言 在分布式系统的生态中,ZooKeeper 作为一个协调服务框架,扮演着至关重要的角色。它的设计目的是提供一个简单高效的解决方案来处理分布式系统中常见的协调问题。本文将详细探讨 ZooKeeper 的典型应用场景,包括但不限于配置管理、命名服务…...
缓存组件<keep-alive>
缓存组件<keep-alive> 1.组件作用 组件, 默认会缓存内部的所有组件实例,当组件需要缓存时首先考虑使用此组件。 2.使用场景 场景1:tab切换时,对应的组件保持原状态,使用keep-alive组件 使用:KeepAlive | Vu…...
YouBIP 项目
技术方案 难点 成效 项目背景 库存管理涉及大量数据,如何在前端实现高效的数据展示和交互是一个挑战。库存管理系统需要处理大量的入库、出库、盘点等操作,尤其是在大企业或多仓库场景下,高并发操作可能导致数据库锁争用、响应延迟等问题。…...
react概览webpack基础
react概览 课程介绍 webpack 构建依赖图->bundle 首屏渲染: 减少白屏等待时间 数据、结构、样式都返回。需要服务器的支持 性能优化 ***webpack干的事情 模块化开发 优势: 多人团队协作开发 可复用 单例:全局冲突 闭包 模块导入的顺序 req…...
DeepSeek 助力 Vue 开发:打造丝滑的步骤条
前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏关注哦 💕 目录 Deep…...
STM32的HAL库开发---高级定时器---互补输出带死区实验
一、互补输出简介 互补输出:OCx输出高电平,则互补通道OCxN输出低电平。OCx输出低电平,则互补通道OCxN输出高电平。 带死区控制的互补输出:OCx输出高电平时,则互补通道OCxN过一会再输出输出低电平。这个时间里输出的电…...
Vue07
一、Vuex 概述 目标:明确Vuex是什么,应用场景以及优势 1.是什么 Vuex 是一个 Vue 的 状态管理工具,状态就是数据。 大白话:Vuex 是一个插件,可以管理 Vue 通用的数据 (多组件共享的数据)。例如:购物车数…...
【CXX-Qt】2 CXX-Qt #[cxx_qt::bridge] 宏指南
#[cxx_qt::bridge] 宏是用于在 Rust 中创建一个模块,该模块能够桥接 Rust 和 Qt(通过 C)之间的交互。它允许你将 Rust 类型暴露给 Qt 作为 QObject、Q_SIGNAL、Q_PROPERTY 等,同时也能够将 Qt 的特性和类型绑定到 Rust 中…...
鸿蒙接入支付宝SDK后模拟器无法运行,报错error: install parse native so failed.
鸿蒙项目接入支付宝后,运行提示error: install parse native so failed. 该问题可能由于设备支持的 Abi 类型与 C 工程中的不匹配导致. 官网error: install parse native so failed.错误解决办法 根据官网提示在模块build-profile.json5中添加“x86_64”依然报错 问…...
局域网使用Ollama(Linux)
解决局域网无法连接Ollama服务的问题 在搭建和使用Ollama服务的过程中,可能会遇到局域网内无法连接的情况。经过排查发现,若开启了代理软件,尤其是Hiddify,会导致此问题。这一发现耗费了我数小时的排查时间,希望能给大…...
Deepseek系列从v3到R易背面经版
deepseek v3 base要点 MTP : Multi-Token Prediction 训练时: 1. 把前一个block中input tokens经过embedding layer和transformer block的输出,进入output head之前的内容记为h,与下一个block的input tokens经过embedding layer输出的内容都…...
Redis深入学习
目录 Redis是什么? Redis使用场景 Redis线程模型 Redis执行命令是单线程的为什么还这么快? Redis持久化 Redis 事务 Key 过期策略 Redis 和 mysql 如何保证数据一致? 缓存穿透 缓存击穿 缓存雪崩 Redis是什么? redis是一…...
《从入门到精通:蓝桥杯编程大赛知识点全攻略》(十一)-回文日期、移动距离、日期问题
前言 在这篇博客中,我们将通过模拟的方法来解决三道经典的算法题:回文日期、移动距离和日期问题。这些题目不仅考察了我们的基础编程能力,还挑战了我们对日期处理和数学推理的理解。通过模拟算法,我们能够深入探索每个问题的核心…...
在Uniapp中使用阿里云OSS插件实现文件上传
在开发小程序时,文件上传是一个常见的需求。阿里云OSS(Object Storage Service)是一个强大的云存储服务,可以帮助我们高效地存储和管理文件。本文将介绍如何在Uniapp小程序中使用阿里云OSS插件实现文件上传功能。 1. 准备工作 首…...
9 数据流图
9 数据流图 9.1数据平衡原则 子图缺少处理后的数据操作结果返回前端应用以及后端数据库返回操作结果到数据管理中间件。 9.2解题技巧 实件名 存储名 加工名 数据流...
IDEA查看项目依赖包及其版本
一.IDEA将现有项目转换为Maven项目 在IntelliJ IDEA中,将现有项目转换为Maven项目是一个常见的需求,可以通过几种不同的方法来实现。Maven是一个强大的构建工具,它可以帮助自动化项目的构建过程,管理依赖关系,以及其他许多方面。 添加Maven支持 如果你的项目还没有pom.xm…...
【数据结构】_栈与队列经典算法OJ:栈与队列的互相实现
目录 1. 用队列实现栈 1.1 题目链接及描述 1.2 解题思路 1.3 程序 2. 用栈实现队列 2.1 题目链接及描述 2.2 解题思路 2.3 程序 1. 用队列实现栈 1.1 题目链接及描述 1. 题目链接 : 225. 用队列实现栈 - 力扣(LeetCode) 2. 题目描…...
SAP-ABAP:ROLLBACK WORK使用详解
在SAP ABAP 中,ROLLBACK WORK 语句用于回滚当前事务(LUW,Logical Unit of Work),撤销自上次提交或回滚以来的所有数据库更改。它通常与 COMMIT WORK 配合使用,确保数据一致性。 关键点: 回滚作…...
React 第五十五节 Router 中 useAsyncError的使用详解
前言 useAsyncError 是 React Router v6.4 引入的一个钩子,用于处理异步操作(如数据加载)中的错误。下面我将详细解释其用途并提供代码示例。 一、useAsyncError 用途 处理异步错误:捕获在 loader 或 action 中发生的异步错误替…...
.Net框架,除了EF还有很多很多......
文章目录 1. 引言2. Dapper2.1 概述与设计原理2.2 核心功能与代码示例基本查询多映射查询存储过程调用 2.3 性能优化原理2.4 适用场景 3. NHibernate3.1 概述与架构设计3.2 映射配置示例Fluent映射XML映射 3.3 查询示例HQL查询Criteria APILINQ提供程序 3.4 高级特性3.5 适用场…...
前端导出带有合并单元格的列表
// 导出async function exportExcel(fileName "共识调整.xlsx") {// 所有数据const exportData await getAllMainData();// 表头内容let fitstTitleList [];const secondTitleList [];allColumns.value.forEach(column > {if (!column.children) {fitstTitleL…...
定时器任务——若依源码分析
分析util包下面的工具类schedule utils: ScheduleUtils 是若依中用于与 Quartz 框架交互的工具类,封装了定时任务的 创建、更新、暂停、删除等核心逻辑。 createScheduleJob createScheduleJob 用于将任务注册到 Quartz,先构建任务的 JobD…...
高等数学(下)题型笔记(八)空间解析几何与向量代数
目录 0 前言 1 向量的点乘 1.1 基本公式 1.2 例题 2 向量的叉乘 2.1 基础知识 2.2 例题 3 空间平面方程 3.1 基础知识 3.2 例题 4 空间直线方程 4.1 基础知识 4.2 例题 5 旋转曲面及其方程 5.1 基础知识 5.2 例题 6 空间曲面的法线与切平面 6.1 基础知识 6.2…...
Python爬虫(二):爬虫完整流程
爬虫完整流程详解(7大核心步骤实战技巧) 一、爬虫完整工作流程 以下是爬虫开发的完整流程,我将结合具体技术点和实战经验展开说明: 1. 目标分析与前期准备 网站技术分析: 使用浏览器开发者工具(F12&…...
ServerTrust 并非唯一
NSURLAuthenticationMethodServerTrust 只是 authenticationMethod 的冰山一角 要理解 NSURLAuthenticationMethodServerTrust, 首先要明白它只是 authenticationMethod 的选项之一, 并非唯一 1 先厘清概念 点说明authenticationMethodURLAuthenticationChallenge.protectionS…...
HBuilderX安装(uni-app和小程序开发)
下载HBuilderX 访问官方网站:https://www.dcloud.io/hbuilderx.html 根据您的操作系统选择合适版本: Windows版(推荐下载标准版) Windows系统安装步骤 运行安装程序: 双击下载的.exe安装文件 如果出现安全提示&…...
Spring Boot+Neo4j知识图谱实战:3步搭建智能关系网络!
一、引言 在数据驱动的背景下,知识图谱凭借其高效的信息组织能力,正逐步成为各行业应用的关键技术。本文聚焦 Spring Boot与Neo4j图数据库的技术结合,探讨知识图谱开发的实现细节,帮助读者掌握该技术栈在实际项目中的落地方法。 …...
【Java_EE】Spring MVC
目录 Spring Web MVC 编辑注解 RestController RequestMapping RequestParam RequestParam RequestBody PathVariable RequestPart 参数传递 注意事项 编辑参数重命名 RequestParam 编辑编辑传递集合 RequestParam 传递JSON数据 编辑RequestBody …...
