当前位置: 首页 > article >正文

SentenceTransformer:计算句子嵌入的模型

原文towardsdatascience.com/sentencetransformer-a-model-for-computing-sentence-embedding-e8d31d9e6a8f在这篇帖子中我们探讨了 2019 年发布的 SentenceTransformer [1]它具有双编码器架构并将 BERT 调整为产生高效的句子嵌入。BERT双向编码器 Transformer 表示建立在所有 NLP 任务都依赖于标记/单词的意义这一理念之上。BERT 的训练分为两个阶段1预训练阶段BERT 学习语言的一般意义2微调阶段BERT 在特定任务上进行训练。…/Images/10a1663258e2756ef6557fc89574cadc.png图片来源于[3]BERT 在学习单词/标记的意义方面非常出色。但是它在学习句子意义方面并不擅长。因此它在某些任务上表现不佳例如句子分类和句子成对相似度。由于 BERT 产生标记嵌入从 BERT 获取句子嵌入的一种方法是对所有标记的嵌入进行平均。SentenceTransformer 论文[1]表明这种方法产生的句子嵌入质量非常低几乎与获取 GLOVE 嵌入一样差。这些嵌入没有捕捉到句子的意义。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/7f280b5ee1dd7fb105fe819fc78f4636.png图片由作者提供为了从 BERT 创建有意义的句子嵌入SentenceTransformer 在少数与句子相关的任务上训练 BERT例如NLI自然语言推理这项任务接收两个输入句子并输出“蕴涵”、“矛盾”或“中性”。在“蕴涵”的情况下句子 1 蕴涵句子 2。在“矛盾”的情况下句子 1 与句子 2 矛盾。在第三种情况下即“中性”两个句子之间没有关系。STS句子文本相似度这项任务接收两个句子并决定它们的相似度。通常使用余弦相似度函数来计算相似度。三元组数据集在 NLI分类目标上训练 BERTSentenceTransformer 使用 Siamese 网络在 NLI 任务上训练 BERT。Siamese 意味着孪生它由两个结构完全相同且共享权重的网络组成。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/28d1a6ae518364a6f57a5955184c552b.png图片由作者提供第一句句子 u 传递到第一个网络第二句句子 v 传递到第二个网络。每个 BERT 后的平均池化会平均每个标记嵌入得到一个 768 维的句子嵌入。我们可以称之为 emb(u)和 emb(v)。最后我们将以下三个向量连接起来emb(u)emb(v)emb(u)-emb(v)。这会得到一个 3*768 维的向量。然后我们通过一个密集层将其映射到 3 个神经元使用 softmax 激活。每个神经元对应于蕴涵、矛盾或中性。…/Images/c47dbe068482db18f4f12ffa3b8273a9.png图片来自 [1]为了训练这个网络我们使用交叉熵损失。在 STS (回归目标)上训练 BERT句子文本相似度任务接收两个句子并计算它们的相似度。在 STS 上微调 BERT 的网络架构如下。它仍然是一个对齐网络顶部有平均池化。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/a009f7d631c3570dde5efef785dff4af.png作者图片在 u 和 v 通过 BERT 和平均池化层后我们得到emb(u)和emb(v)它们都是 768 维的。然后我们计算它们之间的余弦相似度这将是一个范围在(-1,1)之间的分数。为了训练这个网络我们最小化真实相似度和预测相似度之间的平方误差损失。在三元组数据集上训练 BERT (三元组目标)在三元组目标中模型接收一个锚点数据点一个与锚点相关或接近的正样本以及一个与锚点无关的负样本。在文本域中收集这些数据我们可以从文档中随机选择一个句子作为锚点选择其后的句子作为正样本并从不同的段落中随机选择一个句子作为负样本。现在的关键是训练网络使得锚点和正样本之间的距离即|a-p|仍然小于锚点和负样本之间的距离即|a-n|。我们经常设置一个间隔eps并说我们希望|a-p|小于|a-n| - eps。所以如果|a-p||a-m|-eps则loss0。换句话说如果|a-p|-|a-m|eps 0则loss0否则loss0。因此损失函数变为Loss: max (0, |a-p|-|a-m|eps)https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/3d228a27281e37907ceeed5e5f138ef9.png作者图片提醒一下上面解释的三元组损失是对比损失的一个更高级版本其中我们输入模型两个句子a和b它们要么相似要么不相似。对比损失定义为以下如果a和b相似则我们最小化|a-b|。如果它们不相似则我们最大化|a-b|。如果它们的距离大于一个阈值m即|a-b| m那么我们不再最大化它对我们来说足够不同。因此如果-|a-b| -m或换句话说m-|a-b| 0则我们的损失为零。因此损失函数变为y |a-b| (1-y) max(0, m-|a-b|)其中y1如果相似否则y0。在三元组损失上训练的网络通常比使用对比损失训练的相同网络收敛得更快。在推理时间无论我们使用什么方法对 BERT 进行句子理解任务的微调在训练模型后我们使用其中一个塔BERT pooling 层为训练语料库中的所有句子创建句子嵌入。我们将所有内容保存在索引结构中。然后在推理时间我们将查询句子通过相同的模型获取嵌入然后从索引数据结构中检索这个句子的 K 个最近邻。KNN 相似度的度量通常是余弦相似度。代码中的 SentenceTransformer让我们使用mrpcMicrosoft Paraphrasing Corpus[4]来训练一个句子转换器。这个数据集包含两个句子和一个标签表示两个句子是否具有相同的意义。要使用 SentenceTransformer我们首先安装库!pip install sentence_transformers然后我们构建模型。构建模型非常简单它包括三个步骤加载现有的语言模型在标记上构建一个 pooling 层使用模块参数将上述两个步骤连接起来并将其传递给 sentenceTransformer让我们将这个步骤转化为代码# Define model## Step 1: use an existing language modelword_embedding_modelmodels.Transformer(bert-base-uncased)## Step 2: use a pool function over the token embeddingspooling_modelmodels.Pooling(word_embedding_model.get_word_embedding_dimension(),pooling_modecls,pooling_mode_cls_tokenTrue,pooling_mode_mean_tokensFalse)## Join steps 1 and 2 using the modules argumentmodelSentenceTransformer(modules[word_embedding_model,pooling_model])在这段代码中我们使用 BERT 模型作为 transformer。然后我们使用 pooling 层中的 CLS 标记来获取嵌入。接下来让我们加载数据集。我们使用 MRPC 数据集该数据集位于CC-by-V4 许可这是一个常见的开源许可即 Creative CommonCC许可。fromdatasetsimportload_dataset datasetload_dataset(glue,mrpc)https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d1e0b2727ec96bde05c45e53db3b1a89.png作者图片您可以看到数据集由三个分割组成每个分割包含两个句子和一个标签。我们构建训练数据作为一个InputExample的列表。每个InputExample将texts和label作为参数。# Format training datatrain_examples[]forexampleindataset[train]:train_examples.append(InputExample(texts[example[sentence1],example[sentence2]],labelfloat(example[label])))我们然后将这个 _trainexamples列表传递给一个数据加载器train_dataloaderDataLoader(train_examples,shuffleTrue,batch_size4)接下来我们选择训练损失train_losslosses.ContrastiveLoss(modelmodel)现在我们转向制作评估数据集# Format evaluation datasentences1[]sentences2[]scores[]forexampleindataset[validation]:sentences1.append(example[sentence1])sentences2.append(example[sentence2])scores.append(float(example[label]))我们使用binaryClassificationEvaluator进行评估。请参阅完整的评估列表这里。evaluatorevaluation.BinaryClassificationEvaluator(sentences1,sentences2,scores)我们然后通过调用 fit 函数来训练模型# Start trainingmodel.fit(train_objectives[(train_dataloader,train_loss)],evaluatorevaluator,evaluation_steps500,epochs1,warmup_steps0,output_path./sentence_transformer/,weight_decay0.01,optimizer_params{lr:0.00004},save_best_modelTrue,show_progress_barTrue,)现在您的模型已经训练好了您可以对任何特定的句子计算句子嵌入如下所示sentences[This is just a random sentence on a friday evenning,to test model ability.]#Sentences are encoded by calling model.encode()embeddingsmodel.encode(sentences)print(embeddings)如果您想计算模型在测试数据上的准确率可以执行以下操作fromsentence_transformersimportutil correct0forrowindataset[test].select(range(100)):umodel.encode(row[sentence1])vmodel.encode(row[sentence2])cos_scoreutil.cos_sim(u,v)[0].numpy()[0]ifcos_score0.5androw[label]1:correct1ifcos_score0.5androw[label]0:correct1print(correct/100)这将计算准确率即正确预测的总数除以测试数据点的数量。结论在这篇帖子中我们探讨了 sentenceTransformer 库和论文并了解了它是如何解决从 BERT 计算句子嵌入的问题。SentenceTransformer 通过在 Siamese 和 Triplet 架构中对三个与句子相关的数据集NLI、STS 和 triplet 数据集进行微调确保模型学习到有意义的句子嵌入。如果您有任何问题或建议请随时联系我邮箱[email protected] 领英www.linkedin.com/in/minaghashami/参考文献Sentence-BERT: 使用 Siamese BERT-Networks 的句子嵌入sbert 仓库BERT: 用于语言理解的深度双向变换器预训练huggingface.co/datasets/glue/viewer/mrpc交叉编码器 vs 双向编码器

相关文章:

SentenceTransformer:计算句子嵌入的模型

原文:towardsdatascience.com/sentencetransformer-a-model-for-computing-sentence-embedding-e8d31d9e6a8f 在这篇帖子中,我们探讨了 2019 年发布的 SentenceTransformer [1],它具有双编码器架构,并将 BERT 调整为产生高效的句子…...

题目整理之线性dp

周赛137_D小苯的序列涂色 #include<bits/stdc.h> #define int long long #define fi first #define se second using namespace std; const int mod1e97; typedef pair<int,int>pii; const int N3e5; int dx[4]{1,-1,0,0}; int dy[4]{0,0,1,-1}; int num[N],inv[N]…...

新手避坑指南:用Pandas高效合并CIC-IDS-2018的10个CSV文件(附内存优化技巧)

新手避坑指南&#xff1a;用Pandas高效合并CIC-IDS-2018的10个CSV文件&#xff08;附内存优化技巧&#xff09; 网络安全数据分析的第一步往往是从处理原始数据集开始。CIC-IDS-2018作为业内广泛使用的基准数据集&#xff0c;其分散在10个CSV文件中的特征数据给初学者带来了不小…...

OpenClaw个人知识库构建:Qwen3-14b_int4_awq自动标注与归档

OpenClaw个人知识库构建&#xff1a;Qwen3-14b_int4_awq自动标注与归档 1. 为什么需要自动化知识管理 作为一个长期与技术文档打交道的开发者&#xff0c;我的本地硬盘里堆积着超过20GB的研究资料——从PDF论文、Markdown笔记到代码片段和会议记录。传统文件夹分类早已失效&a…...

校正协变量的相关:偏相关分析

当你想研究两个变量&#xff08;X 和 Y&#xff09;的关系&#xff0c;但担心其他变量&#xff08;Z&#xff09;可能干扰这个关系时&#xff0c;偏相关分析 (Partial Correlation) 可以在剔除协变量的影响后&#xff0c;计算 X 和 Y 之间更“纯粹”的关联。 1. 核心定义 偏相关…...

数字游民工作流:OpenClaw+千问3.5-27B自动处理跨境邮件

数字游民工作流&#xff1a;OpenClaw千问3.5-27B自动处理跨境邮件 1. 为什么需要自动化邮件处理 作为数字游民&#xff0c;我每天需要处理来自不同时区的客户邮件。这些邮件往往混杂着英语、西班牙语和中文&#xff0c;且包含大量模糊的需求描述。最痛苦的是凌晨三点被手机提…...

OpenClaw+Qwen3-14b_int4_awq:自动化文档生成工具

OpenClawQwen3-14b_int4_awq&#xff1a;自动化文档生成工具 1. 为什么需要自动化文档生成 作为一名技术写作者&#xff0c;我经常面临一个困境&#xff1a;代码写完了&#xff0c;文档却迟迟无法完成。每次面对空白的Markdown文件&#xff0c;总有种无从下笔的感觉。更糟糕的…...

基于SpringBoot + Vue的人工智能时代个人计算机的安全防护科普系统

文章目录前言一、详细操作演示视频二、具体实现截图三、技术栈1.前端-Vue.js2.后端-SpringBoot3.数据库-MySQL4.系统架构-B/S四、系统测试1.系统测试概述2.系统功能测试3.系统测试结论五、项目代码参考六、数据库代码参考七、项目论文示例结语前言 &#x1f49b;博主介绍&#…...

NaViL-9B多场景落地:物流运单图像识别+地址结构化+异常标记

NaViL-9B多场景落地&#xff1a;物流运单图像识别地址结构化异常标记 1. 物流行业的AI变革机遇 现代物流行业每天处理数以亿计的运单&#xff0c;传统人工处理方式面临三大挑战&#xff1a; 效率瓶颈&#xff1a;人工录入一张运单平均耗时30秒&#xff0c;高峰期处理能力不足…...

基于SpringBoot + Vue的鲜花销售系统(角色:用户、商家、管理员)

文章目录前言一、详细操作演示视频二、具体实现截图三、技术栈1.前端-Vue.js2.后端-SpringBoot3.数据库-MySQL4.系统架构-B/S四、系统测试1.系统测试概述2.系统功能测试3.系统测试结论五、项目代码参考六、数据库代码参考七、项目论文示例结语前言 &#x1f49b;博主介绍&#…...

小程序常用页面跳转 5 种方式汇总(开发常备手册)

小程序多页面协作离不开路由跳转&#xff0c;不同场景对应不同跳转 API&#xff0c;今天一次性整理齐全&#xff0c;开发随时查阅。保留当前页跳转&#xff08;普通内页&#xff09;wx.navigateTo({url:"/pages/detail/detail"})关闭当前页再跳转wx.redirectTo({url:…...

Python脚本打包成.exe方法

利用 pyinstaller打包 先安装这个库 pip install pyinstaller安装完成后&#xff0c;就可台利用pyinstaller进行打包了 在脚本文件的目录下切到cmd中&#xff0c;执行以下 pyinstaller -F tcping.py-F参数&#xff1a; 表示覆盖打包&#xff0c;不管我们打包几次&#xff0c;都…...

SEO 优化师如何处理网站收录和排名下降的问题

SEO 优化师如何处理网站收录和排名下降的问题 在数字营销中&#xff0c;SEO&#xff08;搜索引擎优化&#xff09;是一个至关重要的环节&#xff0c;尤其是对于那些希望在百度上获得高排名和流量的网站。即使是最优秀的SEO策略&#xff0c;也可能会在某些时候面临网站收录和排…...

Linux ioctl系统调用实战

Linux ioctl系统调用实战 ioctl&#xff08;input/output control&#xff09;是Linux系统中一个强大的系统调用&#xff0c;用于设备控制和配置。从网络接口配置到串口通信&#xff0c;ioctl无处不在。本文将深入讲解ioctl的原理和实战应用。 一、ioctl概述 1.1 什么是ioctl i…...

嵌入式轻量级调试追踪组件dbg-trace设计与应用

1. 项目概述dbg-trace是一个面向嵌入式系统的轻量级调试追踪&#xff08;Debug & Trace&#xff09;组件&#xff0c;其核心设计目标是在资源受限的 MCU 环境中提供可配置、低开销、高可靠性的日志输出能力。它不依赖标准 C 库的printf实现&#xff0c;而是基于“追踪端口”…...

Obsidian插件实战:5个提升笔记效率的神器(附避坑指南)

Obsidian插件实战&#xff1a;5个提升笔记效率的神器&#xff08;附避坑指南&#xff09; 如果你正在寻找能够真正提升Obsidian笔记效率的插件组合&#xff0c;这篇文章将为你揭示5个经过实战检验的效率神器。不同于泛泛而谈的插件列表&#xff0c;我们聚焦于那些能够形成工作…...

MySQL索引优化快速入门

这里需要知道什么是B树 从数据结构角度简单分析&#xff1a; 二叉树和B树可以简单理解为通过二分法减少查询的次数&#xff0c;但是仍存在严重的性能问题 1&#xff0c;插入顺序不对时&#xff0c;会退化为链表&#xff0c;时间复杂度由O(logn)变成O(n)。 2. 大数据情况下…...

刷题不再难:用代码随想录和Hot100打造你的算法思维

算法思维跃迁&#xff1a;从代码随想录到Hot100的实战精进指南 1. 算法能力提升的黄金路径 在技术面试中&#xff0c;算法能力往往是区分候选人的关键指标。但许多开发者在刷题过程中常陷入"刷了就忘"的困境&#xff0c;缺乏系统性训练方法。本文将揭示如何通过代码随…...

双向buck-boost电路仿真模型-储能双向DCDC变换器 电压电流双闭环PI控制 蓄电池充放电模式可切换 恒流充电_恒压输出 Matlab_Simulink模型

双向buck-boost电路仿真模型-储能双向DCDC变换器 电压电流双闭环PI控制 蓄电池充放电模式可切换 恒流充电/恒压输出 Matlab/Simulink模型核心控制算法&#xff1a;双闭环 PI 控制器 (MATLAB Function/S-Function) 这是模型的“大脑”。它需要根据模式切换&#xff0c;决定是外环…...

盘姬工具箱功能详解:百余款实用工具助力系统优化

盘姬工具箱最大的特点就是功能的全面性。 软件安装后即可直接使用&#xff0c;打开界面就能看到丰富多样的功能模块。 这些功能模块分类清晰&#xff0c;操作直观&#xff0c;即使是电脑新手也能快速上手。 从日常的小工具到高级的技术工具&#xff0c;盘姬工具箱几乎涵盖了…...

盘姬工具箱:一款值得收藏的免费无广告系统维护神器

在日常使用电脑的过程中&#xff0c;我们难免会遇到各种各样的问题。 系统崩溃、文件误删、右键菜单混乱、网络故障等等&#xff0c;这些问题都让人头疼不已。 为了解决这些问题&#xff0c;很多用户会安装各种专门的工具软件。 但每安装一个软件&#xff0c;都会占用磁盘空…...

算法——bfs/dfs

Find The Multiple 给定一个正整数 n&#xff0c;编写一个程序找出 n 的一个非零倍数 m&#xff0c;其十进制表示只包含数字 0 和 1。可以假设 n 不大于 200&#xff0c;并且存在一个 m&#xff0c;其十进制表示不超过 100 位。 输入 输入文件可能包含多个测试用例。每一行包含…...

04.Python 循环:while+for详解

1. 循环 while或 for后边都记得加:&#xff08;英文冒号&#xff09; 1.1 while 1.1.1 概述 ① 初始化计数器 ② 编写循环条件&#xff08;判断计数器是否达到了目标位置&#xff09; ③ 在循环内部更新计数器 1.1.2 猜数字案例 #适用于 循环次数未知的情况, 例如: 猜数字游戏.…...

CSS自定义变量在JS中动态读取_利用setProperty处理兼容赋值

JS读取CSS自定义变量需确保变量已作用于目标元素&#xff08;如:root或元素自身&#xff09;&#xff0c;再用getComputedStyle(el).getPropertyValue(--var)获取&#xff0c;注意双短横、返回字符串、空字符串非undefined&#xff1b;动态修改用setProperty仅限当前元素&#…...

[具身智能-257]:监督式学习、无监督式学习、半监督式学习、强化学习的概念、差别、代码实现的原理

这四种学习范式&#xff0c;其实就是教机器“如何聪明”的四种不同方法。我们可以把它们想象成四种不同的“教育模式”&#xff0c;每种模式下&#xff0c;机器面临的“考题”和“老师”都不一样。&#x1f393; 监督学习&#xff1a;有老师手把手教核心概念 想象一下&#xff…...

告别 Thread.stop():并发编程的最高礼仪——两阶段终止模式

告别 Thread.stop()&#xff1a;并发编程的最高礼仪——两阶段终止模式各位正在死磕并发编程的同学们&#xff0c;大家平时在学习多线程时&#xff0c;可能都看到过书上的一句警告&#xff1a;“千万不要使用 Thread.stop() 来停止线程&#xff0c;它是极其危险且已被废弃的”。…...

GEO监测是什么?2026年品牌主必须了解的AI可见度追踪工具

一、从一个真实场景说起 2026年&#xff0c;某消费品品牌的市场总监做了一个测试。 她打开DeepSeek&#xff0c;输入&#xff1a;"XX行业哪些品牌比较值得信赖&#xff1f;" AI给出了五个品牌&#xff0c;她们公司不在其中。 她换了一个问法&#xff0c;再问一次…...

小白也能懂!Claude Code 中 Agent 和 Skill 到底有什么区别?

小白也能懂&#xff01;Claude Code 中 Agent 和 Skill 到底有什么区别&#xff1f; 你用 Claude Code 的时候&#xff0c;一定见过这两个词&#xff1a;Agent 和 Skill。 它们都能让 Claude 变得更"聪明"&#xff0c;但原理完全不同。搞混的人不在少数&#xff0c;包…...

介绍 YugabyteDB MCP Server

介绍 YugabyteDB MCP Server Sfurti Sarah June 10, 2025 概述 YugabyteDB MCP Server 是一个全新的、轻量级的、基于 Python 的服务器&#xff0c;它允许像 Anthropic’s Claude 这样的大语言模型&#xff08;Large Language Model, LLM&#xff09;直接与你的 YugabyteDB…...

SEO案例教程有哪些

SEO案例教程有哪些&#xff1f;了解这些将大大提升你的网站排名 在当今的互联网时代&#xff0c;搜索引擎优化&#xff08;SEO&#xff09;已经成为每个网站运营者必须掌握的技能。无论你是新手还是有一些经验&#xff0c;了解和学习高质量的SEO案例教程都能帮助你提升网站的排…...