指针生成网络(PGN)详细指南(引入)
一、Seq2Seq模型:编码-解码框架的开山之作
我们首先要了解的是seq2seq(Sequence-to-Sequence)模型。它最早由Google在2014年的一篇论文中提出,是第一个真正意义上的端到端的编码器-解码器(Encoder-Decoder)框架。
seq2seq模型主要由两部分组成:
- 编码器(Encoder):通常是一个RNN(循环神经网络),用于将输入序列编码为一个固定长度的向量表示,即所谓的“语义向量”。你可以把编码器看作一位尽职的秘书,他会认真阅读你给他的所有材料(输入序列),然后为你写一份精炼的内容摘要(语义向量)。
- 解码器(Decoder):同样是一个RNN,接收编码器输出的语义向量,从中解码出目标输出序列。解码器就像一位创意写手,他会根据秘书提供的摘要(语义向量),创作出一篇全新的文章(输出序列)。
然而,传统的seq2seq模型也存在一些局限性:
- 编码器需要将整个输入序列压缩为一个固定大小的向量,对于较长的输入序列,这样做会损失很多信息。就像秘书写摘要,输入内容太多的话,摘要就不可能面面俱到。
- 解码器只能利用编码器最后一个时间步的状态,无法充分利用编码器中间产生的语义信息。秘书的摘要再好,也只是对原始材料的高度概括,写手创作时无法参考材料的细节。
二、注意力机制:让写手"只选对的,不选多的"
为了克服上述问题,研究者提出了注意力机制(Attention Mechanism)。它的核心思想是:解码器在生成每个词时,都可以有选择地参考编码器不同时间步的输出,自动决定应该重点关注哪些部分。这个过程有点像写手在创作时翻阅秘书整理的资料,重点参考与当前内容最相关的部分。
在实现上,注意力机制会为编码器的每个时间步的输出分配一个权重,然后基于这些权重计算一个上下文向量(Context Vector),作为解码器的附加输入。权重的计算通常基于解码器当前的隐藏状态和编码器各时间步的输出。直观地说,权重越大,说明编码器该时间步的输出对解码器当前预测越重要,需要被重点"关注"。
引入注意力机制后,模型变得更加灵活和高效:
- 不再需要将整个输入序列压缩为固定长度的向量,缓解了长序列的信息损失问题。秘书不用再提供"一言以蔽之"的摘要,而是可以整理一份完整的材料供写手参考。
- 解码过程可以参考编码器各个时间步的输出,充分利用了输入序列的细节信息。写手可以有的放矢地参考材料,写出更精彩的内容。
首先导入库
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F# 使用PyTorch的Transformer模块来简化编码器和解码器的实现
from torch.nn import Transformer
定义编码器类
编码器使用了PyTorch的TransformerEncoder模块,它由多个TransformerEncoderLayer堆叠而成。每个编码器层包含一个多头自注意力机制和一个前馈神经网络。此外,为了让模型能够区分输入序列中不同位置的词,我们还使用了位置编码(Positional Encoding)。位置编码与词嵌入相加,得到最终的输入表示。
class Encoder(nn.Module):def __init__(self, input_dim, hid_dim, n_layers, n_heads, pf_dim, dropout):super().__init__()# 定义Transformer编码器层 self.encoder_layer = nn.TransformerEncoderLayer(d_model=hid_dim, nhead=n_heads, dim_feedforward=pf_dim,dropout=dropout)# 编码器由n_layers个编码器层堆叠而成self.transformer_encoder = nn.TransformerEncoder(self.encoder_layer, num_layers=n_layers)# 位置编码,用于为输入序列的每个位置添加位置信息self.pos_embedding = nn.Embedding(1000, hid_dim)# 输入嵌入层,将离散的输入token转换为连续的向量表示 self.embedding = nn.Embedding(input_dim, hid_dim)# Dropout层,用于防止过拟合self.dropout = nn.Dropout(dropout)def forward(self, src):# src的形状: (src_len, batch_size)# 生成位置编码src_pos = torch.arange(0, src.shape[0]).unsqueeze(0).repeat(src.shape[1], 1).permute(1, 0)# 将输入序列转换为嵌入向量,并加上位置编码src = self.embedding(src) + self.pos_embedding(src_pos)# 通过Dropout层src = self.dropout(src)# 通过Transformer编码器获取最终的编码结果# src的形状: (src_len, batch_size, hid_dim)src = self.transformer_encoder(src)return src
定义注意力层
class Attention(nn.Module):def __init__(self, hid_dim):super().__init__()self.attn = nn.Linear(hid_dim * 2, hid_dim)self.v = nn.Linear(hid_dim, 1, bias=False)def forward(self, hidden, encoder_outputs):# hidden的形状: (batch_size, hid_dim) # encoder_outputs的形状: (src_len, batch_size, hid_dim)src_len = encoder_outputs.shape[0]# 将hidden扩展为encoder_outputs的长度,以便拼接hidden = hidden.unsqueeze(1).repeat(1, src_len, 1)# 将hidden和encoder_outputs按最后一维拼接energy = torch.tanh(self.attn(torch.cat((hidden, encoder_outputs), dim=2))) # 计算注意力权重attention = self.v(energy).squeeze(2)return F.softmax(attention, dim=1)
定义解码器类
解码器的核心也是一个TransformerDecoder模块,它由多个TransformerDecoderLayer组成。每个解码器层包含一个self-attention、一个cross-attention和一个前馈神经网络。其中,self-attention用于处理已生成的输出序列,cross-attention用于根据编码器的输出计算注意力权重。
在每个时间步,解码器首先将上一步的输出通过一个嵌入层和dropout层,然后用注意力层计算当前隐藏状态对编码器输出的注意力权重。接着,将注意力权重与编码器输出加权求和,得到一个上下文向量。这个上下文向量会与当前步的嵌入输入拼接,再通过一个线性层,作为transformer解码器的输入。最后,将transformer解码器的输出通过一个线性层和softmax层,得到当前步的词表分布。
class Decoder(nn.Module):def __init__(self, output_dim, hid_dim, n_layers, n_heads, pf_dim, dropout, attention):super().__init__()self.output_dim = output_dimself.hid_dim = hid_dimself.n_layers = n_layersself.n_heads = n_headsself.pf_dim = pf_dimself.dropout = dropout# 注意力层self.attention = attention# 解码器层self.decoder_layer = nn.TransformerDecoderLayer(d_model=hid_dim, nhead=n_heads,dim_feedforward=pf_dim, dropout=dropout)# 解码器由n_layers个解码器层堆叠而成 self.transformer_decoder = nn.TransformerDecoder(self.decoder_layer, num_layers=n_layers)# 输出层,将transformer的输出转换为预测的词表分布self.out = nn.Linear(hid_dim, output_dim)# 输出词嵌入层self.output_embedding = nn.Embedding(output_dim, hid_dim)# Dropout层self.dropout = nn.Dropout(dropout)def forward(self, input, hidden, encoder_outputs):# input的形状: (batch_size)# hidden的形状: (batch_size, hid_dim)# encoder_outputs的形状: (src_len, batch_size, hid_dim)# 将输入转换为词嵌入input = self.output_embedding(input.unsqueeze(0))# 通过Dropout层input = self.dropout(input)# 通过注意力层,根据hidden和encoder_outputs计算注意力权重a = self.attention(hidden, encoder_outputs)# 将注意力权重与编码器输出相乘,得到注意力加权的上下文向量# a的形状: (batch_size, src_len)# encoder_outputs的形状: (src_len, batch_size, hid_dim)# 将两者相乘得到 (batch_size, src_len, hid_dim)# 然后在src_len维度求和,得到 (batch_size, hid_dim)weighted = torch.bmm(a.unsqueeze(1), encoder_outputs.permute(1, 0, 2)).squeeze(1)# 将加权的上下文向量与输入拼接,作为transformer解码器的输入# input的形状: (1, batch_size, hid_dim)# weighted的形状: (batch_size, hid_dim)# 将两者拼接得到 (1, batch_size, 2*hid_dim)input = torch.cat((input, weighted.unsqueeze(0)), dim=2)# 将拼接后的输入通过线性层,将维度还原为hid_diminput = F.relu(self.attn_combine(input))# 通过transformer解码器# input的形状: (1, batch_size, hid_dim)# hidden的形状: (n_layers, batch_size, hid_dim)# 注意我们这里只传入了encoder_outputs,因为解码器的self-attention会自动计算decoded_outputsoutput, hidden = self.transformer_decoder(input, hidden, encoder_outputs)# 将输出通过线性层转换为词表空间output = self.out(output.squeeze(0))# 应用softmax得到最终的词表分布output = F.softmax(output, dim=1)# 返回 output和新的隐藏状态return output, hidden
我们将编码器和解码器组合成完整的seq2seq模型:
在每个时间步,解码器根据上一步的输出、当前的隐藏状态和编码器的输出计算注意力权重,然后将注意力权重与编码器输出加权求和,得到一个上下文向量。这个上下文向量会作为transformer解码器的一部分输入,用于预测当前步的输出词。
class Seq2Seq(nn.Module):def __init__(self, encoder, decoder, device):super().__init__()self.encoder = encoderself.decoder = decoderself.device = devicedef forward(self, src, trg, teacher_forcing_ratio = 0.5):# src的形状: (src_len, batch_size)# trg的形状: (trg_len, batch_size)# teacher_forcing_ratio是使用正确目标词的概率batch_size = trg.shape[1]trg_len = trg.shape[0]trg_vocab_size = self.decoder.output_dim# 存储解码器的输出序列outputs = torch.zeros(trg_len, batch_size, trg_vocab_size).to(self.device)# 编码输入序列encoder_outputs = self.encoder(src)# 初始化解码器的隐藏状态hidden = encoder_outputs[-1,:,:]# 解码器的第一个输入是 <sos> 标记input = trg[0,:]for t in range(1, trg_len):# 根据当前的输入、隐藏状态和编码器输出,获取预测结果output, hidden = self.decoder(input, hidden, encoder_outputs)# 保存当前的输出outputs[t] = output# 根据teacher_forcing_ratio决定使用正确答案还是模型预测的词作为下一步的输入 teacher_force = random.random() < teacher_forcing_ratiotop1 = output.argmax(1) input = trg[t] if teacher_force else top1return outputs
我们可以打印一下完整的model来看一下内部结构:
# 创建一些示例输入数据
src = torch.tensor([[1, 3, 4, 2]]) # 形状: (src_len, batch_size)
trg = torch.tensor([[1, 3, 4, 2]]) # 形状: (trg_len, batch_size)# 定义模型参数
input_dim = len(input_vocab)
output_dim = len(output_vocab)
hid_dim = 256
n_layers = 3
n_heads = 8
pf_dim = 512
dropout = 0.1# 实例化模型组件
attention = Attention(hid_dim)
encoder = Encoder(input_dim, hid_dim, n_layers, n_heads, pf_dim, dropout)
decoder = Decoder(output_dim, hid_dim, n_layers, n_heads, pf_dim, dropout, attention)
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')# 实例化Seq2Seq模型
model = Seq2Seq(encoder, decoder, device).to(device)
print(model)
输出:
Seq2Seq((encoder): Encoder((encoder_layer): TransformerEncoderLayer((self_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(linear1): Linear(in_features=256, out_features=512, bias=True)(dropout): Dropout(p=0.1, inplace=False)(linear2): Linear(in_features=512, out_features=256, bias=True)(norm1): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm2): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(dropout1): Dropout(p=0.1, inplace=False)(dropout2): Dropout(p=0.1, inplace=False))(transformer_encoder): TransformerEncoder((layers): ModuleList((0-2): 3 x TransformerEncoderLayer((self_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(linear1): Linear(in_features=256, out_features=512, bias=True)(dropout): Dropout(p=0.1, inplace=False)(linear2): Linear(in_features=512, out_features=256, bias=True)(norm1): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm2): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(dropout1): Dropout(p=0.1, inplace=False)(dropout2): Dropout(p=0.1, inplace=False))))(pos_embedding): Embedding(1000, 256)(embedding): Embedding(5, 256)(dropout): Dropout(p=0.1, inplace=False))(decoder): Decoder((attention): Attention((attn): Linear(in_features=512, out_features=256, bias=True)(v): Linear(in_features=256, out_features=1, bias=False))(decoder_layer): TransformerDecoderLayer((self_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(multihead_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(linear1): Linear(in_features=256, out_features=512, bias=True)(dropout): Dropout(p=0.1, inplace=False)(linear2): Linear(in_features=512, out_features=256, bias=True)(norm1): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm2): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm3): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(dropout1): Dropout(p=0.1, inplace=False)(dropout2): Dropout(p=0.1, inplace=False)(dropout3): Dropout(p=0.1, inplace=False))(transformer_decoder): TransformerDecoder((layers): ModuleList((0-2): 3 x TransformerDecoderLayer((self_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(multihead_attn): MultiheadAttention((out_proj): NonDynamicallyQuantizableLinear(in_features=256, out_features=256, bias=True))(linear1): Linear(in_features=256, out_features=512, bias=True)(dropout): Dropout(p=0.1, inplace=False)(linear2): Linear(in_features=512, out_features=256, bias=True)(norm1): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm2): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(norm3): LayerNorm((256,), eps=1e-05, elementwise_affine=True)(dropout1): Dropout(p=0.1, inplace=False)(dropout2): Dropout(p=0.1, inplace=False)(dropout3): Dropout(p=0.1, inplace=False))))(out): Linear(in_features=256, out_features=5, bias=True)(output_embedding): Embedding(5, 256)(dropout): Dropout(p=0.1, inplace=False))
)
三、指针生成网络:在"写原创"和"纯搬运"间找平衡
尽管有了注意力机制,传统的seq2seq模型在一些任务上的表现仍不尽如人意,尤其是在文本摘要领域。想象一下,如果让一个小说家去写新闻摘要,他很可能会添加一些原文中没有的内容。这在文学创作中是才华,在文本摘要里却是Bug。我们希望摘要模型既能准确抓取原文的关键信息,又能生成流畅自然的句子。
于是,斯坦福大学的研究者在2017年提出了指针生成网络(PGN)。它在传统的seq2seq+注意力框架的基础上,添加了一种新的混合生成方式:
- 生成模式:根据当前的解码器状态和注意力语境,从固定词表中生成新词。这一部分与普通的seq2seq没有区别,对应着摘要写手的“创作”能力。
- 拷贝模式:直接从输入序列中选择某个词,原封不动地"指针"到输出中。这一部分让模型有了"直接引用"的能力,对应着摘要写手的"摘抄"功能。
PGN通过一个可学习的"生成概率"来控制每一步应该选择生成模式还是拷贝模式。生成概率同时取决于解码器状态、注意力语境和当前输入,可以自动调节生成和拷贝的比例。打个比方,生成概率就像写手的思路开关:什么时候该发挥创造力,什么时候该直接引用原文,全凭她自己拿捏。
PGN在文本摘要、阅读理解等任务上取得了显著的效果提升。它成功地找到了"创作"与"摘编"的平衡:
- 在关键信息的提取和复述上更加准确,避免了关键细节的遗漏和僭改。写手知道什么地方该直接"照抄"。
- 生成的摘要更加自然流畅,可读性大大提高。写手也能适时发挥"文学才华",润色文字。
相关文章:
指针生成网络(PGN)详细指南(引入)
一、Seq2Seq模型:编码-解码框架的开山之作 我们首先要了解的是seq2seq(Sequence-to-Sequence)模型。它最早由Google在2014年的一篇论文中提出,是第一个真正意义上的端到端的编码器-解码器(Encoder-Decoder)…...
案例研究丨浪潮云洲通过DataEase推进多维度数据可视化建设
浪潮云洲工业互联网有限公司(以下简称为“浪潮云洲”)成立于2018年,定位于工业数字基础设施建设商、具有国际影响力的工业互联网平台运营商、生产性互联网头部服务商。截至目前,浪潮云洲工业互联网平台连续五年入选跨行业跨领域工…...
k8s 蓝绿发布、滚动发布、灰度发布
在Kubernetes(k8s)中,蓝绿发布、滚动发布、灰度发布(金丝雀发布)是三种常见的应用部署和更新策略。下面将分别对这几种发布方式进行说明,并给出相应的例子。 蓝绿发布 蓝绿发布是一种无缝切换版本的部署策…...
UWB原理:AOA测角原理Angel of Arrival
AOA测角原理Angel of Arrival 准备工作: UWB默认使用channel=9,Frequency = 7987.2mMhz,约8GHz。 波长 天线RX1, RX2间距一般为20mm左右,假如发射端TX离2个RX距离2m=2000mm,大约是100倍天线间距。2个入射角可以近似相同。 测角原理: <...
plus.runtime.install在android10无效
在 Android 10 中,使用 plus.runtime.install 方法来进行动态安装应用或进行其他操作可能会失效。这是因为从 Android 10 开始,操作系统在安全性和隐私方面做了很多改进,特别是与应用安装相关的权限变更。 在 Android 10(API 级别…...
7.C++中的函数
C中的函数 在 C 中,函数是一个重要的概念,它是将一段相对独立的、完成特定任务的代码封装起来的程序模块。以下是关于 C 中函数的详细介绍: 函数的定义 函数定义由函数头和函数体组成,其一般形式如下: 返回值类型 …...
上位机知识篇---Python数据图表可视化
文章目录 前言第一部分:Matplotlib1. 图形和轴(Figure and Axes)FigureAxes创建一个新的图形在图形中添加一个或多个轴 2. 绘图命令绘制折线图绘制散点图绘制条形图绘制饼图绘制直方图等高线图(Contour plot)ÿ…...
详解:TCP/IP五层(四层)协议模型
一.五层(四层)模型 1.概念 TCP/IP协议模型分为五层:物理层、数据链路层、网络层、传输层和应用层。这五层每一层都依赖于其下一层给它提供的网络去实现需求。 1)物理层:这是最基本的一层,也是最接近硬件…...
【原生记忆能力 怎么让大模型拥有原生的记忆能力】
首先,需要明确“原生记忆能力”具体指的是什么。通常来说,大模型如GPT-3或GPT-4在生成回复时是基于训练数据的模式识别,而不是真正的记忆。所以用户可能希望模型能够持续记住之前的交互信息,或者在多次使用中积累知识,…...
百度APP iOS端磁盘优化实践(上)
01 概览 在APP的开发中,磁盘管理已成为不可忽视的部分。随着功能的复杂化和数据量的快速增长,如何高效管理磁盘空间直接关系到用户体验和APP性能。本文将结合磁盘管理的实践经验,详细介绍iOS沙盒环境下的文件存储规范,探讨业务缓…...
qml Dialog详解
1、概述 Dialog是QML(Qt Modeling Language)中用于显示对话框的组件,它提供了一个模态窗口,通常用于与用户进行重要交互,如确认操作、输入信息或显示警告等。Dialog组件具有灵活的布局和样式选项,可以轻松…...
2025年的校招管理系统会全面实现智能化吗?
随着科技的不断进步,企业的招聘方式也在不断地演变。特别是在校园招聘领域,传统的招聘方法已经难以满足现代企业的需求。2025年的校招管理系统是否会全面实现智能化?这是一个值得探讨的话题。 想象一下,每年的校招季,…...
【Unity】使用Canvas Group改变UI的透明度
目录 一、前言二、Canvas Group三、结合DOTween达到画面淡进的效果 一、前言 在平时开发中,可以通过控制材质、Color改变UI透明度,除此之外还可以CanvasGroup组件来控制透明度。 二、Canvas Group 官方文档链接👉👉 点击进入 …...
2024年博客之星主题创作|2024年度感想与新技术Redis学习
Redis工具深入了解 1.引言与感想2.Redis工具了解2.分布式系统了解2.1单机架构2.2分布式是什么2.3应用服务和数据库服务分离2.4引入更多的应用服务器2.5理解负载均衡器2.6数据库读写分离2.7引入缓存2.8数据库分库分表2.9引入微服务2.10分布式系统小结 1.引言与感想 2024学习了很…...
6. 马科维茨资产组合模型+政策意图AI金融智能体(DeepSeek-V3)增强方案(理论+Python实战)
目录 0. 承前1. 幻方量化 & DeepSeek1.1 What is 幻方量化1.2 What is DeepSeek 2. 重写AI金融智能体函数3. 汇总代码4. 反思4.1 不足之处4.2 提升思路 5. 启后 0. 承前 本篇博文是对上一篇文章,链接: 5. 马科维茨资产组合模型政策意图AI金融智能体(Qwen-Max)增…...
Unity自学之旅05
Unity自学之旅05 Unity学习之旅⑤📝 AI基础与敌人行为🥊 AI导航理论知识(基础)开始实践 🎃 敌人游戏机制追踪玩家攻击玩家子弹碰撞完善游戏失败条件 🤗 总结归纳 Unity学习之旅⑤ 📝 AI基础与敌…...
linux中关闭服务的开机自启动
引言 systemctl 是 Linux 系统中用于管理 systemd 服务的命令行工具。它可以用来启动、停止、重启服务,管理服务的开机自启动,以及查看服务的状态等。 什么是 systemd? systemd 是现代 Linux 发行版中默认的 初始化系统(init sys…...
Python----Python高级(文件操作open,os模块对于文件操作,shutil模块 )
一、文件处理 1.1、文件操作的重要性和应用场景 1.1.1、重要性 数据持久化: 文件是存储数据的一种非常基本且重要的方式。通过文件,我们可 以将程序运行时产生的数据永久保存下来,以便将来使用。 跨平台兼容性: 文件是一种通用…...
ubuntu黑屏问题解决
重启Ubuntu后,系统自动进入tty1,无法进入桌面。想到前几天安装了一些主题之类的,然后今天才重启,可能是这些主题造成冲突或者问题了把。 这里直接重新安装ubuntu-desktop解决: 更新源: sudo apt-get upd…...
Java如何实现反转义
Java如何实现反转义 前提 最近做的一个需求,是热搜词增加换一批的功能。功能做完自测后,交给了测试伙伴,但是测试第二天后就提了一个bug,出现了未知词 levis。第一眼看着像公司售卖的一个品牌-李维斯。然后再扒前人写的代码&…...
DeepSeek 赋能智慧能源:微电网优化调度的智能革新路径
目录 一、智慧能源微电网优化调度概述1.1 智慧能源微电网概念1.2 优化调度的重要性1.3 目前面临的挑战 二、DeepSeek 技术探秘2.1 DeepSeek 技术原理2.2 DeepSeek 独特优势2.3 DeepSeek 在 AI 领域地位 三、DeepSeek 在微电网优化调度中的应用剖析3.1 数据处理与分析3.2 预测与…...
将对透视变换后的图像使用Otsu进行阈值化,来分离黑色和白色像素。这句话中的Otsu是什么意思?
Otsu 是一种自动阈值化方法,用于将图像分割为前景和背景。它通过最小化图像的类内方差或等价地最大化类间方差来选择最佳阈值。这种方法特别适用于图像的二值化处理,能够自动确定一个阈值,将图像中的像素分为黑色和白色两类。 Otsu 方法的原…...
10-Oracle 23 ai Vector Search 概述和参数
一、Oracle AI Vector Search 概述 企业和个人都在尝试各种AI,使用客户端或是内部自己搭建集成大模型的终端,加速与大型语言模型(LLM)的结合,同时使用检索增强生成(Retrieval Augmented Generation &#…...
Web中间件--tomcat学习
Web中间件–tomcat Java虚拟机详解 什么是JAVA虚拟机 Java虚拟机是一个抽象的计算机,它可以执行Java字节码。Java虚拟机是Java平台的一部分,Java平台由Java语言、Java API和Java虚拟机组成。Java虚拟机的主要作用是将Java字节码转换为机器代码&#x…...
脑机新手指南(七):OpenBCI_GUI:从环境搭建到数据可视化(上)
一、OpenBCI_GUI 项目概述 (一)项目背景与目标 OpenBCI 是一个开源的脑电信号采集硬件平台,其配套的 OpenBCI_GUI 则是专为该硬件设计的图形化界面工具。对于研究人员、开发者和学生而言,首次接触 OpenBCI 设备时,往…...
门静脉高压——表现
一、门静脉高压表现 00:01 1. 门静脉构成 00:13 组成结构:由肠系膜上静脉和脾静脉汇合构成,是肝脏血液供应的主要来源。淤血后果:门静脉淤血会同时导致脾静脉和肠系膜上静脉淤血,引发后续系列症状。 2. 脾大和脾功能亢进 00:46 …...
python基础语法Ⅰ
python基础语法Ⅰ 常量和表达式变量是什么变量的语法1.定义变量使用变量 变量的类型1.整数2.浮点数(小数)3.字符串4.布尔5.其他 动态类型特征注释注释是什么注释的语法1.行注释2.文档字符串 注释的规范 常量和表达式 我们可以把python当作一个计算器,来进行一些算术…...
C++中vector类型的介绍和使用
文章目录 一、vector 类型的简介1.1 基本介绍1.2 常见用法示例1.3 常见成员函数简表 二、vector 数据的插入2.1 push_back() —— 在尾部插入一个元素2.2 emplace_back() —— 在尾部“就地”构造对象2.3 insert() —— 在任意位置插入一个或多个元素2.4 emplace() —— 在任意…...
Easy Excel
Easy Excel 一、依赖引入二、基本使用1. 定义实体类(导入/导出共用)2. 写 Excel3. 读 Excel 三、常用注解说明(完整列表)四、进阶:自定义转换器(Converter) 其它自定义转换器没生效 Easy Excel在…...
多模态学习路线(2)——DL基础系列
目录 前言 一、归一化 1. Layer Normalization (LN) 2. Batch Normalization (BN) 3. Instance Normalization (IN) 4. Group Normalization (GN) 5. Root Mean Square Normalization(RMSNorm) 二、激活函数 1. Sigmoid激活函数(二分类&…...
