当前位置: 首页 > news >正文

Python Transformer 模型的基本原理:BERT 和 GPT 以及它们在情感分析中的应用

Transformer 模型的基本原理:BERT 和 GPT 以及它们在情感分析中的应用

近年来,Transformer 模型在自然语言处理(NLP)领域取得了巨大成功,为任务如翻译、生成文本、问答和情感分析带来了显著的性能提升。本文将介绍 Transformer 模型的基本原理,重点解释 BERT 和 GPT 等模型的工作机制,并展示它们如何在情感分析中提高效果。希望帮助对 Transformer 感兴趣的新手快速理解其核心思想和实际应用。

在这里插入图片描述

一、Transformer 模型的背景

在 Transformer 模型出现之前,序列到序列的任务主要依赖于循环神经网络(RNN)和长短期记忆网络(LSTM)。这些模型虽然在 NLP 领域取得了一定成功,但存在一些瓶颈:

  1. 训练速度较慢:由于 RNN 需要逐步处理输入序列,因此训练速度较慢。
  2. 长期依赖问题:随着序列长度的增加,模型的表现会下降,因为难以记住早期的信息。

Transformer 由 Vaswani 等人在 2017 年提出,它放弃了 RNN 的结构,采用一种完全基于 Attention 机制的架构。这种创新设计显著提升了模型的训练速度和对长序列的处理能力,使得 Transformer 成为了 NLP 领域的主流模型。

Transformer 模型的核心:Attention 机制

Transformer 模型的核心是“自注意力(Self-Attention)”机制。自注意力的作用是让模型在处理某个词汇时,可以“关注”到输入序列中的其他词汇,从而获得更丰富的上下文信息。这对于解决长期依赖问题至关重要。Attention 的计算公式如下:

[
\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right) V
]

其中:

  • ( Q )(Query):查询向量
  • ( K )(Key):键向量
  • ( V )(Value):值向量
  • ( d_k ):向量的维度

Attention 的主要作用在于加权计算句子中每个词的权重,使得模型能够捕捉上下文中的依赖关系。

二、Transformer 的结构

Transformer 包含两个主要部分:编码器(Encoder)解码器(Decoder),它们分别由多个相同的层堆叠而成。每一层都由两部分组成:自注意力层前馈神经网络层

  • 编码器:将输入序列编码为上下文表示,每层包含自注意力层和前馈神经网络层。
  • 解码器:根据编码器生成的表示和目标序列的上下文生成输出。

这种编码-解码结构使 Transformer 能够高效地处理复杂的 NLP 任务。

三、BERT 模型:双向 Transformer 编码器

BERT(Bidirectional Encoder Representations from Transformers)是基于 Transformer 的编码器架构模型,由 Google 于 2018 年提出。BERT 的创新之处在于其双向性,即在理解某个词时,BERT 可以同时考虑到该词的左右上下文信息。BERT 在多个 NLP 任务上取得了优秀的效果。

1. BERT 的预训练任务

BERT 通过以下两个任务进行预训练,从而在广泛的语料库中学习语言知识:

  • 掩码语言模型(Masked Language Model,MLM):BERT 会随机掩盖部分词汇,让模型在上下文中预测被掩盖的词汇。
  • 下一句预测(Next Sentence Prediction,NSP):BERT 在给定的一对句子时,需要判断第二句是否是第一句的后续句。

2. BERT 的优势

BERT 的双向编码使得它能够在情感分析等任务中捕捉更加准确的上下文信息。例如,句子“电影情节不够吸引人”中,“不够”表明否定含义,BERT 能够很好地理解这种含义,并在情感分析中给出更准确的预测。

3. BERT 在情感分析中的应用

在情感分析任务中,BERT 可以通过微调(Fine-Tuning)的方式来调整模型参数,使其适应特定的数据集和任务。通常,我们可以使用 BERT 的最后一层输出作为文本的表示,并通过一个简单的分类器(如全连接层)进行情感分类。BERT 的强大表现主要来自于它对上下文的全面理解,这对于理解复杂情感表达的句子尤其有效。

四、GPT 模型:生成式预训练 Transformer

GPT(Generative Pre-trained Transformer)是 OpenAI 提出的生成模型,主要用于文本生成任务。与 BERT 的主要区别在于,GPT 使用**单向(从左到右)**的 Transformer 结构,专注于生成式任务,特别适合文本生成和续写等任务。

1. GPT 的自回归模型

GPT 采用自回归(Auto-Regressive)的方式生成文本,即预测当前词时只关注之前的词。它的训练任务是预测下一个词,这使得它擅长生成连贯的句子。

2. GPT 的优势

由于 GPT 专注于生成任务,它在语言生成方面具有极大的优势,生成的文本流畅自然,非常适合回答问题、写文章等应用。

3. GPT 在情感分析中的应用

虽然 GPT 是生成模型,但经过微调后,它也可以用于分类任务,如情感分析。GPT 可以通过生成候选情感标签并根据概率选择最合适的标签来完成分类任务。GPT 在理解文本和生成自然语言方面的能力,使得它在复杂情感的判断中也有出色的表现。

五、BERT 和 GPT 的对比

模型BERTGPT
架构编码器(双向)解码器(单向)
训练目标掩码语言模型(MLM)、下一句预测自回归预测
任务适配情感分析、分类、问答等文本生成、对话生成
上下文获取双向上下文单向上下文

选择适合的模型

在情感分析任务中,通常选择 BERT 等双向模型更为合适,因为它们可以更好地理解句子的全局含义和上下文。而在需要生成文本或延续对话时,GPT 会是一个较好的选择。

六、实际案例:使用 BERT 和 GPT 进行情感分析

为了更好地理解 BERT 和 GPT 在情感分析中的应用,我们通过具体代码来展示如何使用这两个模型来进行情感分类。

1. 使用 BERT 进行情感分析

我们可以通过 Hugging Face 的 Transformers 库来加载预训练的 BERT 模型,并进行情感分析。

安装所需库
pip install transformers torch
代码示例
from transformers import BertTokenizer, BertForSequenceClassification
import torch# 加载 BERT 模型和分词器
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)# 输入文本
text = "我非常喜欢这部电影!剧情引人入胜。"# 编码输入
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)
outputs = model(**inputs)# 获取预测结果
logits = outputs.logits
predicted_class = torch.argmax(logits, dim=1).item()
sentiment = ["非常负面", "负面", "中性", "正面", "非常正面"][predicted_class]
print(f"情感分析结果: {sentiment}")

在这段代码中,我们加载了预训练的 BERT 模型,并将一段文本输入到模型中进行情感分析。结果将返回情感分类的标签。

2. 使用 GPT-2 进行情感分析

尽管 GPT-2 主要用于生成任务,但它经过微调后也可以用于情感分析任务。

代码示例
from transformers import GPT2Tokenizer, GPT2ForSequenceClassification
import torch# 加载 GPT 模型和分词器
model_name = "textattack/gpt2-base-SST-2"
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
model = GPT2ForSequenceClassification.from_pretrained(model_name)# 输入文本
text = "This movie was absolutely fantastic!"# 编码输入
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)
outputs = model(**inputs)# 获取预测结果
logits = outputs.logits
predicted_class = torch.argmax(logits, dim=1).item()
sentiment = ["负面", "正面"][predicted_class]
print(f"情感分析结果: {sentiment}")

这里使用了预训练并微调过的 GPT 模型来预测文本的情感标签。同样,它会输出“正面”或“负面”标签。

七、总结

Transformer 的诞生为自然语言处理带来了巨大变革,特别是 BERT 和 GPT 等模型在情感分析、文本生成等任务上表现出色。BERT 作为双向模型,在理解上下文方面具有优势,非常适合分类任务如情感分析。而 GPT 的生成能力让它在对话系统等生成任务中表现出色。无论是使用 BERT 还是 GPT,Transformer 模型都能够在 NLP 任务中显著提高效果,推动了情感分析等应用的深入发展。

通过本文的介绍,相信新手们对 Transformer 模型及其在情感分析中的应用有了基本的理解。在实际应用中,可以根据任务的具体需求选择适合的模型并进行微调,以获得更好的效果。

相关文章:

Python Transformer 模型的基本原理:BERT 和 GPT 以及它们在情感分析中的应用

Transformer 模型的基本原理:BERT 和 GPT 以及它们在情感分析中的应用 近年来,Transformer 模型在自然语言处理(NLP)领域取得了巨大成功,为任务如翻译、生成文本、问答和情感分析带来了显著的性能提升。本文将介绍 Tr…...

【云原生】Kubernets1.29部署StorageClass-NFS作为存储类,动态创建pvc(已存在NFS服务端)

文章目录 在写redis集群搭建的时候,有提到过使用nfs做storageclass,那时候kubernetes是1.20版本,https://dongweizhen.blog.csdn.net/article/details/130651727 现在使用的是kubernetes 1.29版本,根据之前的修改方式并未生效,反而提示:Error: invalid argument "Re…...

使用 Pandas 进行时间序列分析的 10个关键点

使用Pandas进行时间序列分析的10个关键点(由于篇幅限制,这里调整为10个,但实际操作中可能涉及更多细节)如下: 1. 创建时间序列数据 时间序列数据是指在多个时间点上形成的数值序列。在Pandas中,可以使用t…...

使用 Mermaid 语言描述 AGI 系统架构图

使用Mermaid语言描述AGI系统架构图 一、整体架构概述 以下是一个简化的AGI(Artificial General Intelligence,通用人工智能)系统架构的Mermaid描述。该系统主要包括数据收集与预处理、模型训练、推理与决策以及交互接口等模块,各…...

绘制线性可分支持向量机决策边界图 代码解析

### 绘制线性可分支持向量机决策边界图 def plot_classifer(model, X, y):# 超参数边界x_min -7x_max 12y_min -12y_max -1step 0.05# meshgridxx, yy np.meshgrid(np.arange(x_min, x_max, step),np.arange(y_min, y_max, step))# 模型预测z model.predict(np.c_[xx.ra…...

No.23 笔记 | WEB安全 - 任意文件漏洞 part 5

本文全面且深入地探讨了文件上传漏洞相关知识。从基础概念出发,清晰地阐述了文件上传漏洞的定义及其产生的本质原因,同时列出了该漏洞成立的必要条件。详细说明了文件上传漏洞可能对服务器控制权、网站安全以及业务运营带来的严重危害。 文中还深入解析了…...

EasyPlayer.js网页播放器,支持FLV、HLS、WebSocket、WebRTC、H.264/H.265、MP4、ts各种音视频流播放

EasyPlayer.js功能: 1、支持解码H.264视频(Baseline, Main, High Profile全支持,支持解码B帧视频) 2、支持解码H.265视频(flv id 12) 3、支持解码AAC音频(LC,HE,HEv2 Profile全支持) 4、支持解码MP3音频以及Speex音频格式 5、可…...

WPF数据绑定的五大模式

WPF(Windows Presentation Foundation)是微软推出的一种用于构建Windows用户界面的UI框架。它支持数据绑定,允许开发者将UI元素与数据源绑定,从而实现数据和界面的自动同步。WPF数据绑定有几种不同的模式, 以下是五种…...

从零到一:大学新生编程入门攻略与成长指南

文章目录 每日一句正能量前言编程语言选择:为大学新生量身定制Python:简单而强大的选择JavaScript:Web开发的基石Java:面向对象的经典C#:微软的全能选手 学习资源推荐:编程学习的宝藏在线课程教程和文档书籍…...

详细分析Pytorch中的transpose基本知识(附Demo)| 对比 permute

目录 前言1. 基本知识2. Demo 前言 原先的permute推荐阅读:详细分析Pytorch中的permute基本知识(附Demo) 1. 基本知识 transpose 是 PyTorch 中用于交换张量维度的函数,特别是用于二维张量(矩阵)的转置操…...

初识WebGL

思路&#xff1a; 构建<canvas>画布节点&#xff0c;获取其的实例。使用getWebGLContext() 拿到画布上下文。拿到上下文用clearColor() 设置背景颜色。最后清空canvas画布,是为了清除颜色缓冲区。 html结构&#xff1a; <!DOCTYPE html> <html lang"en&…...

【力扣】Go语言回溯算法详细实现与方法论提炼

文章目录 一、引言二、回溯算法的核心概念三、组合问题1. LeetCode 77. 组合2. LeetCode 216. 组合总和III3. LeetCode 17. 电话号码的字母组合4. LeetCode 39. 组合总和5. LeetCode 40. 组合总和 II小结 四、分割问题6. LeetCode 131. 分割回文串7. LeetCode 93. 复原IP地址小…...

「C/C++」C/C++ 之 第三方库使用规范

✨博客主页何曾参静谧的博客&#x1f4cc;文章专栏「C/C」C/C程序设计&#x1f4da;全部专栏「VS」Visual Studio「C/C」C/C程序设计「UG/NX」BlockUI集合「Win」Windows程序设计「DSA」数据结构与算法「UG/NX」NX二次开发「QT」QT5程序设计「File」数据文件格式「PK」Parasoli…...

六、元素应用CSS的习题

题目一&#xff1a; 使用CSS样式对页面元素加以修饰&#xff0c;制作“ 旅游攻略 ”网站。如下图所示 运行效果&#xff1a; 代码&#xff1a; <!DOCTYPE html> <html><head><meta charset"utf-8" /><title>旅游攻略</title><…...

正式入驻!上海斯歌BPM PaaS管理软件等产品入选华为云联营商品

近日&#xff0c;上海斯歌旗下BPM PaaS管理软件&#xff08;NBS&#xff09;等多款产品入选华为云云商店联营商品&#xff0c;上海斯歌正式成为华为云联营商品合作伙伴。用户登录华为云云商店即可采购上海斯歌的BPM PaaS产品及配套服务。通过联营模式&#xff0c;双方合作能够深…...

使用 Axios 上传大文件分片上传

背景 在上传大文件时&#xff0c;分片上传是一种常见且有效的策略。由于大文件在上传过程中可能会遇到内存溢出、网络不稳定等问题&#xff0c;分片上传可以显著提高上传的可靠性和效率。通过将大文件分割成多个小分片&#xff0c;不仅可以减少单次上传的数据量&#xff0c;降…...

Nginx+Lua脚本+Redis 实现自动封禁访问频率过高IP

1 、安装OpenResty 安装使用 OpenResty&#xff0c;这是一个集成了各种 Lua 模块的 Nginx 服务器&#xff0c;是一个以Nginx为核心同时包含很多第三方模块的Web应用服务器&#xff0c;使用Nginx的同时又能使用lua等模块实现复杂的控制。 &#xff08;1&#xff09;安装编译工具…...

PART 1 数据挖掘概论 — 数据挖掘方法论

目录 数据库知识发掘步骤 数据挖掘技术的产业标准 CRISP-DM SEMMA 数据库知识发掘步骤 数据库知识发掘(Knowledge Discovery in Database,KDD)是从数据库中的大量数据中发现不明显、之前未知、可能有用的知识。 知识发掘流程(Knowledge Discovery Process)包括属性选择…...

Centos安装ffmpeg的方法

推荐第一个,不要自己编译安装,太难了,坑多。 在 CentOS 上安装 FFmpeg 有几种方法,以下是两种常见的方法: ### 方法一:使用 RPM Fusion 仓库安装 1. **启用 RPM Fusion 仓库**: RPM Fusion 是一个第三方仓库,提供了许多 CentOS 官方仓库中没有的软件包。 ```bash…...

理解SQL中通配符的使用

前言 SQL 是一种标准化的结构化查询语言&#xff0c;涉及结构化查询时&#xff0c;高效地检索数据至关重要。而通配符是SQL中模式匹配的有效的方法。使用通配符可以更轻松地检索到所需的确切数据。通配符允许我们定义多功能查询条件。本文将 介绍SQL通配符的基础知识及用法。 …...

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…...

调用支付宝接口响应40004 SYSTEM_ERROR问题排查

在对接支付宝API的时候&#xff0c;遇到了一些问题&#xff0c;记录一下排查过程。 Body:{"datadigital_fincloud_generalsaas_face_certify_initialize_response":{"msg":"Business Failed","code":"40004","sub_msg…...

Linux链表操作全解析

Linux C语言链表深度解析与实战技巧 一、链表基础概念与内核链表优势1.1 为什么使用链表&#xff1f;1.2 Linux 内核链表与用户态链表的区别 二、内核链表结构与宏解析常用宏/函数 三、内核链表的优点四、用户态链表示例五、双向循环链表在内核中的实现优势5.1 插入效率5.2 安全…...

R语言AI模型部署方案:精准离线运行详解

R语言AI模型部署方案:精准离线运行详解 一、项目概述 本文将构建一个完整的R语言AI部署解决方案,实现鸢尾花分类模型的训练、保存、离线部署和预测功能。核心特点: 100%离线运行能力自包含环境依赖生产级错误处理跨平台兼容性模型版本管理# 文件结构说明 Iris_AI_Deployme…...

centos 7 部署awstats 网站访问检测

一、基础环境准备&#xff08;两种安装方式都要做&#xff09; bash # 安装必要依赖 yum install -y httpd perl mod_perl perl-Time-HiRes perl-DateTime systemctl enable httpd # 设置 Apache 开机自启 systemctl start httpd # 启动 Apache二、安装 AWStats&#xff0…...

【JVM】- 内存结构

引言 JVM&#xff1a;Java Virtual Machine 定义&#xff1a;Java虚拟机&#xff0c;Java二进制字节码的运行环境好处&#xff1a; 一次编写&#xff0c;到处运行自动内存管理&#xff0c;垃圾回收的功能数组下标越界检查&#xff08;会抛异常&#xff0c;不会覆盖到其他代码…...

鸿蒙中用HarmonyOS SDK应用服务 HarmonyOS5开发一个生活电费的缴纳和查询小程序

一、项目初始化与配置 1. 创建项目 ohpm init harmony/utility-payment-app 2. 配置权限 // module.json5 {"requestPermissions": [{"name": "ohos.permission.INTERNET"},{"name": "ohos.permission.GET_NETWORK_INFO"…...

[Java恶补day16] 238.除自身以外数组的乘积

给你一个整数数组 nums&#xff0c;返回 数组 answer &#xff0c;其中 answer[i] 等于 nums 中除 nums[i] 之外其余各元素的乘积 。 题目数据 保证 数组 nums之中任意元素的全部前缀元素和后缀的乘积都在 32 位 整数范围内。 请 不要使用除法&#xff0c;且在 O(n) 时间复杂度…...

根据万维钢·精英日课6的内容,使用AI(2025)可以参考以下方法:

根据万维钢精英日课6的内容&#xff0c;使用AI&#xff08;2025&#xff09;可以参考以下方法&#xff1a; 四个洞见 模型已经比人聪明&#xff1a;以ChatGPT o3为代表的AI非常强大&#xff0c;能运用高级理论解释道理、引用最新学术论文&#xff0c;生成对顶尖科学家都有用的…...

Java 二维码

Java 二维码 **技术&#xff1a;**谷歌 ZXing 实现 首先添加依赖 <!-- 二维码依赖 --><dependency><groupId>com.google.zxing</groupId><artifactId>core</artifactId><version>3.5.1</version></dependency><de…...