当前位置: 首页 > article >正文

Embedding算法入门到精通:拆解腾讯二面必考题,收藏这一篇就够了!

面试官RAG 里用的 Embedding 算法有哪些你了解过几代演进‍♂️我Embedding 算法我知道Word2Vec 嘛把词变成向量。面试官Word2Vec 是 2013 年的算法了它每个词只有一个固定向量「吃苹果」和「苹果手机」里的「苹果」向量完全一样多义词都处理不了你怎么拿它做语义检索‍♂️我那就用 BERT 呗BERT 能理解上下文效果肯定好。面试官BERT 做语义检索你每次查询都要把问题和所有候选文档拼在一起跑一遍 BERT百万级知识库跑百万次你的用户等得起吗SBERT 呢SimCSE 呢BGE 呢这些专门为检索设计的 Embedding 模型你一个都没听说过好吧Embedding 算法远不止 Word2Vec下面我把三代演进讲清楚。 简要回答Embedding 算法大致经历了三代演进。第一代是静态词向量以 Word2Vec 和 GloVe 为代表把每个词映射成固定向量但同一个词不管上下文是什么向量永远不变处理不了多义词。第二代是以 BERT 为代表的上下文相关向量同一个词在不同语境下有不同的向量表达能力大幅提升但 BERT 本身输出的是 token 级别的向量两个句子要比较相似度就必须拼在一起跑百万条文档就要跑百万次检索速度完全不可接受。第三代是以 SBERT、SimCSE、BGE 为代表的句子级对比学习 Embedding专门为「两段文本有多相似」这个任务优化能提前把所有文档向量算好存起来查询时只需算一次是 RAG 场景的标配。 详细解析为什么 Embedding 算法要一代代演进要理解各代算法的设计动机先想一个最简单的问题怎么让计算机理解「苹果手机怎么截图」和「iPhone 如何截屏」是同一个问题关键词匹配完全没用因为这两句话没有一个共同的词。早期 NLP 系统为了解决这个问题走向了「把词变成向量」这条路——向量空间里的距离代表语义距离这就是 Embedding 的核心出发点。你可能会想既然都是把文本变成向量搞一套方案不就行了为什么还要一代一代演进原因很简单每一代方案解决了一类问题的同时都暴露出了新的短板。第一代处理不了多义词第二代处理了多义词但在检索场景下慢得无法实用第三代才真正把「语义检索」这件事做到既能用又好用。理解了这个「每一代在补上一代的坑」的逻辑后面三代算法的设计思路就很好懂了。第一代静态词向量Word2Vec / GloVe / FastText先来看第一代算法。它们的核心思路非常朴素用一个词周围的词来预测这个词或者反过来用这个词来预测周围的词。通过大量文本训练语义相近的词自然就会在向量空间里被推到一起。Word2Vec是这一代最有影响力的代表2013 年 Google 提出。它有两种训练方式CBOW用周围词预测中心词和 Skip-gram用中心词预测周围词Skip-gram 在小数据集上效果更好是更常用的方式。训练完之后每个词对应一个固定的向量「国王 - 男人 女人 ≈ 女王」这个著名的类比就是用 Word2Vec 向量做到的当时整个 NLP 圈都为之兴奋。GloVeGlobal Vectors for Word Representation是斯坦福提出的思路和 Word2Vec 类似但更系统直接对整个语料库的词共现矩阵做分解对全局统计信息的利用更充分。实际效果和 Word2Vec 差不多很多场景两者可以互换。FastText是 Facebook 提出的改进解决了一个很实际的问题Word2Vec 处理不了「未登录词」也就是训练集里从没见过的词。你可能会觉得这有什么大不了的但在真实业务里新词、专有名词、网络流行语不断冒出来处理不了新词就意味着检索直接断链。FastText 的解法很巧妙——把词拆成字符级别的 n-gram 子词比如「苹果」会被拆成「苹」「果」「苹果」等子片段每个子片段有自己的向量一个词的向量是其子片段向量的平均。这样遇到没见过的新词只要子片段见过就还能估算出一个合理的向量。这一代算法的共同局限性是两个字静态。每个词只有一个固定向量不管上下文如何。「我吃了苹果」里的「苹果」和「苹果手机发布了」里的「苹果」向量完全相同。很多人以为 Word2Vec 已经理解了语义其实它只是记住了「哪些词经常一起出现」真正的语义理解还差得远。这个致命缺陷直接催生了第二代算法。第二代上下文相关向量ELMo / BERT理解了第一代「一个词永远只有一个向量」的局限第二代算法的改进方向就很明确了让词的向量随上下文动态变化同一个词在不同句子里有不同的向量表示。ELMo2018 年Allen NLP 提出用双向 LSTM 来建模同时从左往右和从右往左扫描句子把两个方向的隐藏状态拼起来作为词的上下文向量。ELMo 是第一个实用的上下文 Embedding当时在多个 NLP 任务上大幅刷新了成绩。BERT2018 年Google 提出用 Transformer 替代 LSTM引入了 Masked Language Model 预训练任务效果全面超越 ELMo成为 NLP 领域最重要的里程碑之一。BERT 用 [CLS] token 来表示整个句子同时看到前后文双向表达能力远超单向模型。但问题来了——BERT 这么强为什么 RAG 检索不用它很多人以为 BERT 效果好就万事大吉其实不是。BERT 有一个在检索场景下极其致命的缺陷要比较两个句子的相似度必须把两个句子拼在一起喂给 BERT让 [CLS] 来做判断。这意味着每次检索都要把查询和每一个候选 chunk 拼在一起跑 BERT百万条文档的知识库就要跑百万次。你可能觉得百万次也不算多吧别忘了 BERT 一次前向传播就要几十毫秒百万次就是好几个小时用户根本等不起。这个问题直接导致了第三代的诞生。第三代句子级对比学习 EmbeddingSBERT / SimCSE / BGE第二代 BERT 虽然语义理解能力强但「必须两两拼接」这个限制让它在检索场景下完全没法用这就引出了第三代的核心理念能不能让每个句子独立生成一个向量然后直接用余弦相似度来比较第三代专门针对「句子相似度」和「语义检索」这个任务优化是 RAG 系统的标配。SBERTSentence-BERT2019 年就是用这个思路解决了 BERT 在检索场景下用不了的问题。它用 bi-encoder 结构两个句子分别独立过 BERT各自得到一个句子级向量然后只用余弦相似度来衡量两个向量的距离。你可能会问这样精度不会下降吗确实会因为两个句子不再交互了模型看不到它们之间的细微关联。但换来的是速度提升了几个数量级——知识库里所有文档的向量可以提前算好存起来每次检索时只需要算一次查询向量然后做余弦相似度就行毫秒级返回。在 RAG 这种「速度优先」的场景里这个取舍完全值得。from sentence_transformers import SentenceTransformermodel SentenceTransformer(all-MiniLM-L6-v2)# 查询和文档分别独立编码不需要拼在一起query 苹果手机怎么截图doc iPhone 截屏方法query_vec model.encode(query) # 检索时实时算doc_vec model.encode(doc) # 提前算好存向量库# 余弦相似度衡量语义距离from sklearn.metrics.pairwise import cosine_similarityscore cosine_similarity([query_vec], [doc_vec])SimCSE2021 年普林斯顿提出进一步提升了句子 Embedding 的质量。核心思路是对比学习把同一句话做两次 dropout 得到两个不同的向量把这两个向量作为正样本对让模型学会把它们拉近同时把同一个 batch 里其他句子的向量作为负样本把它们推远。这个方法训练非常简单不需要人工标注但效果很好。它解决了一个很多人不知道的问题BERT 原生的句子向量存在「各向异性」也就是说向量分布是扭曲的都挤在一个窄小的锥形区域里没有充分利用向量空间。SimCSE 通过对比学习把向量「撑开」了让语义空间变得更均匀。BGEBAAI General Embedding北京智源研究院是目前中文 RAG 场景最常用的开源模型基于对比学习在大规模中英文数据上训练同时支持 bi-encoder 和 reranker 两种形态专门为检索场景优化实测中文语义检索效果超过 OpenAI 的 text-embedding 系列。E5微软是另一个常用的英文对比学习 Embedding效果同样优秀。理解了这三代用一张表来总结它们的演进逻辑世代代表模型核心特点主要局限RAG 适用性第一代Word2Vec、GloVe、FastText词级静态向量无法处理多义词词级非句子级不适用第二代ELMo、BERT上下文动态向量检索时需两两拼接速度极慢不适用于实时检索第三代SBERT、SimCSE、BGE、E5句子级 bi-encoder对比学习精度低于 cross-encoder标配性能和精度平衡最优RAG 场景下基本只考虑第三代模型中文场景首选 BGE英文场景 E5 或 text-embedding-3-small 都是不错的选择。 面试总结回到开头那段面试Embedding 算法这个问题考察的是你对检索层技术的理解深度。回答时要按三代演进的逻辑来讲。第一代静态词向量Word2Vec/GloVe解决了「词变向量」的问题但处理不了多义词。第二代上下文向量BERT解决了多义词的问题但检索时要两两拼接百万级知识库完全没法用。第三代句子级 EmbeddingSBERT/SimCSE/BGE用 bi-encoder 独立编码提前算好向量存起来检索时只算余弦相似度是 RAG 的标配。面试官如果追问「你们项目用的什么模型」你就说中文场景用 BGE在自己的业务数据上做评估选型能讲出这个就有说服力了。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

Embedding算法入门到精通:拆解腾讯二面必考题,收藏这一篇就够了!

👔面试官:RAG 里用的 Embedding 算法有哪些?你了解过几代演进? 🙋‍♂️我:Embedding 算法我知道,Word2Vec 嘛,把词变成向量。 👔面试官:Word2Vec 是 2013 …...

DeepSeek-R1 1.5B使用技巧:这样提问,AI回答更准确更详细

DeepSeek-R1 1.5B使用技巧:这样提问,AI回答更准确更详细 1. 引言:提问方式决定回答质量 你是否遇到过这样的情况:向AI提问后,得到的回答要么过于简略,要么偏离主题?这很可能不是模型能力的问题…...

2026高性价比协作工具盘点:如何兼顾文件管理与数据安全?

在2026年的数字化办公时代,企业网盘早已不仅是简单的“存储仓库”,而是团队协作、文件流转和保障数据资产安全的核心基础设施。针对市面上眼花缭乱的产品,企业IT和管理者如何找到匹配业务需求且具备高性价比的云盘方案? 本文将从…...

DeerFlow深度研究助理5分钟快速上手:零基础搭建个人AI研究助手

DeerFlow深度研究助理5分钟快速上手:零基础搭建个人AI研究助手 1. 认识DeerFlow:您的智能研究伙伴 DeerFlow是一款基于LangStack技术框架开发的深度研究助理工具。它能像专业研究员一样帮您完成信息搜集、数据分析、报告撰写甚至播客制作等工作。想象一…...

企业网盘哪个品牌好用?2026年企业高效办公网盘TOP5产品全景测评

“信息创造了人类,而信息流通与共享塑造了文明。”在数字化协作成为企业命脉的今天,这句预言愈发显现其前瞻性。过去几年中,远程协同办公逐渐常态化,当团队分散在各地、项目文件版本混乱、重要数据面临泄露风险时,传统…...

W-TRS-5.5D7红外测温传感器:电饭煲智能化测温的革新力量

在健康饮食与智能烹饪需求日益增长,电饭煲作为厨房的核心设备之一,其测温技术的革新直接关系到米饭的口感、营养保留以及特殊饮食需求的满足。W-TRS-5.5D7红外测温传感器的出现,以非接触式测温技术为核心,结合定制化算法实现智能化…...

储能BMS数据语境化采集架构解析与边缘计算网关选型推荐

摘要:在新能源场站的系统集成中,面对各厂家互不兼容的BMS/PCS总线协议,传统的硬编码接入模式存在扩展性差、联调耗时长的问题。本文分享一种在底层计算节点中利用数据语境化机制与动态映射解析器实现零代码接入的高阶架构,探讨通用…...

GEE-PIE遥感大数据处理与典型案例实践

随着航空、航天、近地空间等多个遥感平台的不断发展,近年来遥感技术突飞猛进。由此,遥感数据的空间、时间、光谱分辨率不断提高,数据量也大幅增长,使其越来越具有大数据特征。对于相关研究而言,遥感大数据的出现为其提…...

Claude Code Routines功能深度解析:24小时云端自动化开发指南

引言:为什么需要Routines功能? 随着AI开发工具的普及,开发者面临一个新的挑战:如何让AI助手在无人值守的情况下持续工作?Claude Code Routines正是为解决这一问题而生。 核心价值: 🚀 24小时…...

2026 想转网络安全?一文看懂:薪资结构 + 工作安排 + 发展前景(新人必备)

2026年,数字化转型进入深水区,网络威胁呈现复杂化、智能化特征,APT攻击、数据泄露等安全事件频发,叠加《网络安全法》《数据安全法》的刚性合规要求,网络安全已成为政企单位、互联网大厂的“刚需板块”[6]。对于想转行…...

告别终端管理:5款Claude Code管理工具深度对比与实战指南

引言:为什么需要Claude Code管理工具? 随着Claude Code功能的日益强大,开发者面临一个新的挑战:如何高效管理多个并行运行的AI Agent?传统的终端窗口管理方式已经无法满足现代开发需求。 痛点分析: &…...

告别卡顿!用PaddleSeg的PP-LiteSeg模型在边缘设备上实现实时语义分割(附保姆级部署教程)

边缘设备实时语义分割实战:PP-LiteSeg部署全指南与性能优化 在智能摄像头、移动机器人和工业质检等边缘计算场景中,实时语义分割技术正成为关键突破口。传统分割模型往往需要强大的GPU支持,而边缘设备如Jetson Nano、树莓派甚至智能手机的算力…...

2026年4月亲测:宠物智能猫砂盆哪家强?

行业痛点分析在宠物智能猫砂盆领域,尽管市场上已有多种自动铲屎产品,但用户仍然面临一些核心问题。普通猫砂盆即便具备自动铲屎功能,底部仍会残留沾了尿液的结团猫砂,需要用户每周手动拆洗,实际上并未完全解放双手。数…...

华硕天选2 FA506Q FA706Q 原厂Win11 22H2系统分享下载-宇程系统站

华硕天选2 FA506Q和FA706Q系列笔记本自带一键恢复功能,即使系统出现问题或更换硬盘后也能通过原厂工厂文件恢复到出厂状态。支持多种型号如FA506QR、FA506QM等,用户可轻松恢复Windows 11 22H2家庭版系统及隐藏的恢复分区,确保设备稳定运行。 …...

从Gotham到Foundry:一文读懂Palantir三大产品线(Gotham/Foundry/Apollo)的核心差异与适用场景

从Gotham到Foundry:Palantir三大产品线的深度解析与选型指南 当企业面对海量数据时,如何选择合适的数据分析平台往往成为技术决策者的难题。Palantir作为大数据分析领域的标杆企业,其三大产品线——Gotham、Foundry和Apollo——各自针对不同场…...

幼儿园自主游戏:核心内涵、实践体系与发展价值

幼儿园自主游戏是幼儿在安全环境下,依兴趣自主选择内容、材料、伙伴与玩法,自发探索、自由表达的主体性活动,是学前教育的基本形态与幼儿发展的核心路径。它彻底区别于教师主导的指令式游戏,核心是尊重幼儿主体地位,让…...

2026年毕业答辩前论文AI率紧急处理:48小时攻略

2026年毕业答辩前论文AI率紧急处理:48小时攻略 从62%降到6%,我用了一晚上时间。这是答辩前降AI的完整经历记录。 核心工具:嘎嘎降AI(www.aigcleaner.com),4.8元一篇,达标率99.26%。详细步骤和…...

AgentCPM-Report落地指南:Pixel Epic镜像免配置一键部署教程(含Streamlit定制)

AgentCPM-Report落地指南:Pixel Epic镜像免配置一键部署教程(含Streamlit定制) 1. 产品概述 Pixel Epic是一款基于AgentCPM-Report大模型构建的研究报告辅助终端,将枯燥的科研过程转化为充满游戏感的像素RPG体验。这款工具特别适…...

菜花矮化栽培水肥一体系统搭建实战手册

导读 很多种菜花的朋友想提高产量,又怕传统种植太费工。矮砧密植(Dwarf Rootstock Dense Planting,即用矮化砧木让植株变矮、种得更密)配合水肥一体化,正好解决这个问题。本文不讲大道理,直接教你在地里一步…...

2026年月付会员和按篇付费降AI工具对比:长期用哪种更划算

2026年月付会员和按篇付费降AI工具对比:长期用哪种更划算 「到底选哪个降AI工具」——这是我被问得最多的问题。 根据我自己用过的和帮朋友用过的经验,综合推荐嘎嘎降AI(www.aigcleaner.com),4.8元,99.26…...

Nano-Banana开源镜像教程:基于PEFT的LoRA动态加载机制详解

Nano-Banana开源镜像教程:基于PEFT的LoRA动态加载机制详解 1. 教程概述 今天我们来深入解析Nano-Banana Studio的核心技术——基于PEFT的LoRA动态加载机制。这个功能让AI能够智能地将复杂物体拆解成精美的平铺图和分解视图,为设计师提供强大的创作工具…...

Rust的#[cfg(doctest)]配置属性与文档测试在库开发中的自动化验证

Rust作为一门注重安全性与性能的系统级编程语言,其强大的元编程能力和文档工具链一直备受开发者推崇。在库开发中,如何确保文档中的示例代码始终保持正确性?这正是#[cfg(doctest)]配置属性与文档测试大显身手的场景。通过自动化验证嵌入在文档…...

Day05:Windows配置:内置用户、内置组(一)

配置内置用户打开计算机管理工具,通过右键点击“此电脑”选择“管理”,进入“本地用户和组”选项。在“用户”文件夹中,可以查看现有的内置用户账户,如Administrator和Guest。创建新用户时,右键点击“用户”文件夹选择…...

2026年企业网盘排行榜:10大主流方案安全性与协作效率深度实测

在数字化办公高度普及的2026年,公司文件共享网盘早已超越了单纯的“云端U盘”媒介,进化为企业数字资产管理与协同办公的底层核心引擎。面对市面上琳琅满目的系统,“哪款好”不再只聚焦于空间大小,而是更关乎数据安全、权限控制、传…...

OpenLayers(六)动态聚合策略与性能优化

1. 动态聚合策略的核心逻辑 地图应用中点位聚合(Cluster)是解决海量数据展示的经典方案。但很多开发者容易忽略一个关键问题:固定聚合距离参数在不同缩放级别下的表现差异。我曾在智慧城市项目中遇到一个典型场景——当用户从省级视图缩放到街…...

手撕哈希表(Hash Table):从原理到C++完整实现

手撕哈希表(Hash Table):从原理到C完整实现 哈希表作为O(1)级别查找的数据结构,是面试与工程开发中的高频考点。本文从哈希核心概念讲起,深入哈希函数、哈希冲突、两种冲突解决方案,并提供可直接运行的C完…...

AI净界RMBG-1.4场景应用:如何快速制作电商透明背景主图

AI净界RMBG-1.4场景应用:如何快速制作电商透明背景主图 1. 电商主图制作的痛点与解决方案 在电商运营中,商品主图的质量直接影响点击率和转化率。传统制作透明背景主图的方法通常需要设计师使用Photoshop等专业工具,通过钢笔工具、魔棒等手…...

markitdown:微软出的「万物转Markdown」工具,内容提取效率翻倍

markitdown:微软出的「万物转Markdown」工具,内容提取效率翻倍 做内容的人每天要处理各种格式的文件:PDF报告、Word文档、PPT、Excel表格、图片中的文字…… 以前要么手动复制,要么专门找工具转换,效率极低。微软开源了…...

Xinference-v1.17.1在Java开发中的模型调用最佳实践

Xinference-v1.17.1在Java开发中的模型调用最佳实践 1. 引言 在电商推荐系统的开发过程中,我们经常需要处理海量的用户行为数据和商品信息。传统的推荐算法往往难以捕捉用户的深层兴趣,而AI大模型的出现为个性化推荐带来了新的可能。Xinference-v1.17.…...

OFA视觉蕴含模型实操手册:结果可解释性增强——注意力热力图可视化

OFA视觉蕴含模型实操手册:结果可解释性增强——注意力热力图可视化 1. 项目概述 OFA视觉蕴含模型是一个强大的多模态AI系统,能够智能分析图像内容与文本描述之间的语义关系。简单来说,它能判断一张图片和一段文字是否匹配,就像一…...