当前位置: 首页 > article >正文

LangChain项目里用Ollama跑本地Embedding模型,绕过Tokenization报错的实战记录

LangChain实战用Ollama本地模型替代OpenAI Embedding的完整解决方案当开发者尝试在LangChain项目中用本地模型替代OpenAI的Embedding服务时常会遇到各种兼容性问题。最近我在一个知识库项目中就踩到了这样的坑——使用Ollama部署的bge-large-zh-v1.5模型时遭遇了令人困惑的invalid input type错误。经过一番源码级调试终于找到了完美绕过Tokenization问题的方案。1. 问题场景与错误复现在LangChain生态中OpenAIEmbeddings是使用最广泛的文本嵌入工具类。当我们需要切换到本地模型时很自然地会想到利用Ollama提供的OpenAI兼容API。典型的初始化代码如下from langchain_openai import OpenAIEmbeddings embeddings OpenAIEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama ) output embeddings.embed_query(你好)执行这段代码会抛出以下错误openai.BadRequestError: Error code: 400 - {error: {message: invalid input type, type: api_error}}这个错误表面看是输入类型不合法但实际上隐藏着LangChain与Ollama API之间的深层兼容性问题。2. 问题根源分析通过深入调试我发现问题出在LangChain的Tokenization处理逻辑上。OpenAIEmbeddings内部的工作流程大致如下输入文本首先经过_tokenize方法处理然后调用_get_len_safe_embeddings方法分块处理最后通过HTTP请求发送到API端点关键问题在于Ollama的API期望直接接收原始文本但OpenAIEmbeddings默认会对文本进行Tokenization处理Tokenization后的数据结构与Ollama API的预期格式不匹配错误发生在请求体构造阶段客户端已经转换了原始文本格式3. 解决方案设计与实现要解决这个问题我们需要创建一个新的Embeddings类继承自OpenAIEmbeddings但绕过Tokenization步骤。以下是完整的实现方案from typing import List, Optional from langchain_community.embeddings import OpenAIEmbeddings class OllamaCompatibleEmbeddings(OpenAIEmbeddings): def _tokenize(self, texts: List[str], chunk_size: int) - tuple: 禁用Tokenization直接返回原始文本和索引 indices list(range(len(texts))) return (range(0, len(texts), chunk_size), texts, indices) def _get_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: 直接传递原始文本跳过Token化步骤 _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response self.client.create( inputchunk, # 关键修改直接使用原始文本列表 modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings async def _aget_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: 异步版本处理逻辑 _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response await self.async_client.create( inputchunk, modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings4. 方案使用与效果验证现在我们可以这样使用改造后的Embeddings类embeddings OllamaCompatibleEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama, chunk_size512 ) # 测试查询 output embeddings.embed_query(你好) print(len(output)) # 应该输出嵌入向量的维度这个方案的主要优势在于完全兼容现有LangChain生态可以直接替换原来的OpenAIEmbeddings性能无损跳过了不必要的Tokenization步骤反而提升了效率支持异步操作保留了原版的异步处理能力配置灵活可以自由调整chunk_size等参数5. 深入原理与扩展应用理解这个解决方案需要掌握几个关键点Ollama的OpenAI兼容模式Ollama提供了/v1/embeddings端点其请求格式与OpenAI类似但不完全相同LangChain的Embedding处理流程文本预处理默认会Tokenization分块处理考虑模型上下文长度限制API请求构造结果解析这种解决方案不仅适用于bge-large-zh-v1.5模型理论上可以用于任何通过Ollama部署的文本嵌入模型。在实际项目中我还发现这种方案对于处理长文本特别有效因为它避免了不必要的Tokenization开销。对于需要自定义处理的场景可以进一步重写以下方法def _embed(self, texts: List[str]) - List[List[float]]: 完全自定义的嵌入方法 # 自定义实现...6. 性能优化与生产建议在生产环境使用这个方案时有几个优化点值得注意批量处理尽量使用embed_documents而不是embed_query来处理批量文本chunk_size调优根据模型和硬件调整合适的chunk_size错误处理增加对API响应数据的健壮性检查缓存机制对重复文本可以考虑添加缓存层一个增强版的实现可能包含这些改进from functools import lru_cache class EnhancedOllamaEmbeddings(OllamaCompatibleEmbeddings): lru_cache(maxsize1024) def embed_query(self, text: str) - List[float]: 带缓存的查询嵌入 return super().embed_query(text) def _validate_response(self, response): 验证API响应格式 if not response.get(data): raise ValueError(Invalid response format) return response7. 常见问题与排查技巧在实际集成过程中可能会遇到以下问题问题1API连接超时检查Ollama服务是否正常运行curl http://127.0.0.1:11434确认防火墙设置问题2返回的嵌入维度不一致不同模型的嵌入维度不同需要确认模型规格可以在初始化时添加维度验证class ValidatedOllamaEmbeddings(OllamaCompatibleEmbeddings): def __init__(self, expected_dim: int, **kwargs): super().__init__(**kwargs) self.expected_dim expected_dim def _validate_embedding(self, embedding: List[float]): if len(embedding) ! self.expected_dim: raise ValueError(fExpected dimension {self.expected_dim}, got {len(embedding)})问题3处理速度慢尝试调整chunk_size考虑使用异步接口检查模型是否加载到了GPU8. 替代方案比较除了这里介绍的方案外还有几种可能的替代方法方案优点缺点本文方案无缝集成改动最小需要继承和重写方法直接调用Ollama API完全控制流程失去LangChain生态优势使用LangChain的Ollama类官方支持功能可能受限对于大多数场景本文的方案提供了最佳的平衡点——既保持了LangChain的便利性又解决了兼容性问题。

相关文章:

LangChain项目里用Ollama跑本地Embedding模型,绕过Tokenization报错的实战记录

LangChain实战:用Ollama本地模型替代OpenAI Embedding的完整解决方案 当开发者尝试在LangChain项目中用本地模型替代OpenAI的Embedding服务时,常会遇到各种兼容性问题。最近我在一个知识库项目中就踩到了这样的坑——使用Ollama部署的bge-large-zh-v1.5模…...

从零到一:彻底搞懂数据仓库的增量、全量与拉链

1. 数据仓库的三种核心表类型 刚接触数据仓库时,我被各种表类型搞得晕头转向。直到真正动手实践后才发现,增量表、全量表和拉链表其实就像我们日常生活中的三种记账方式。想象一下,你正在经营一家小超市,这三种表就是你的三种记账…...

从IEEE-754到魔法数字:揭秘快速平方根倒数算法的数学之美

1. 浮点数表示与IEEE-754标准 要理解快速平方根倒数算法的精妙之处,我们得先从计算机如何表示浮点数说起。想象一下,如果你只能用0和1来表达圆周率π这样的无限不循环小数,你会怎么做?这就是IEEE-754标准要解决的核心问题。 IEEE-…...

使用Go语言与Helm Client管理Argo-CD部署的实践

使用Go语言与Helm Client管理Argo-CD部署的实践 在现代的云原生环境中,容器编排工具如Kubernetes已经成为了基础设施的核心。而Helm作为Kubernetes的包管理器,可以极大地方便我们管理和部署复杂的应用。今天,我们将探讨如何使用Go语言编写的Helm Client来管理Argo-CD的部署…...

从高危漏洞到类缺失:Apache POI依赖升级的实战避坑指南

1. 当安全告警遇上类缺失:Apache POI升级的典型困境 昨天深夜收到安全团队的紧急邮件,项目中的Apache POI组件被检测出高危漏洞。作为项目负责人,我立刻按照漏洞公告建议升级到5.0.0版本,没想到等待我的不是安全警报解除&#xf…...

告别‘C:’报错!CCS12.2下DSP28335生成.bin/.hex文件的保姆级配置流程

CCS12.2下DSP28335生成.bin/.hex文件的完整避坑指南 当你在深夜调试DSP28335项目,终于通过仿真器完成程序验证,准备生成.bin文件进行现场升级时,突然跳出的"C:不是内部或外部命令"报错,是不是让你瞬间睡意全无&#xff…...

天赐范式第2个星期:仅仅两周的娃儿和PID打成平手,换个领域就不好说了,过程可复现,文尾附python源码。

🔥 混沌控制巅峰对决!天赐范式 VS 混沌 PID(FPU 热传导实测,无作弊无套路) 我用一整个上午再加午饭时间,让豆包当天赐范式,让文心当 PID,在前文提到的强非线性 FPU(Fermi…...

从混沌到秩序:缠论可视化插件如何重构技术分析思维框架

从混沌到秩序:缠论可视化插件如何重构技术分析思维框架 【免费下载链接】Indicator 通达信缠论可视化分析插件 项目地址: https://gitcode.com/gh_mirrors/ind/Indicator 你是否曾在K线图中迷失方向,面对无数跳动的蜡烛图却难以捕捉市场的真实节奏…...

从课堂到实践:DCT与DWT变换在图像压缩中的核心原理与MATLAB实现

1. 图像压缩背后的数学魔法:DCT与DWT初探 第一次接触图像压缩时,我被一个现象深深吸引:为什么一张几MB的照片压缩成JPEG后,文件大小能缩小十倍,而肉眼几乎看不出区别?这背后的秘密就藏在**离散余弦变换&…...

Matlab导入ARXML老报错?手把手教你排查UUID冲突、工具链兼容等常见坑(基于真实项目经验)

Matlab处理ARXML文件实战避坑指南:从UUID冲突到工具链兼容的深度解析 最近在汽车电子领域,AUTOSAR架构已经成为行业标配。作为工程师,我们经常需要在Matlab/Simulink环境中处理ARXML文件,但这个过程往往充满各种"坑"。上…...

x86-64 汇编手撕 XOR 神经网络:从寄存器乘法到 FPU 指数运算的全链路底层复盘

大多数机器学习工程师每天用 PyTorch 一行代码就完成前向传播,却从未见过权重如何真正躺在内存里、每一次矩阵乘法如何变成 CPU 的 mulss 指令、sigmoid 里的 exp(-x) 如何靠 1980 年的 x87 FPU 堆栈一点点算出来。行业默认“高层框架就够了”,真实生产里…...

从SPI到IIC:7脚OLED屏幕接口改造实战指南

1. 为什么需要SPI转IIC接口改造 很多朋友第一次接触OLED屏幕时,可能会遇到这样的困惑:为什么同一个型号的屏幕会有SPI和IIC两种接口版本?我手上这块7脚OLED明明标着SPI接口,能不能改成IIC使用?这里面的门道其实很有意思…...

AI Agent 长链工作流的最大隐形黑洞:Claude 提示缓存的架构纪律拆解

你的 AI Agent 刚跑完 50 轮工具调用,账单却比预期高出 5 倍。系统提示 2 万 token、工具定义、项目上下文,每次步骤都原封不动地重新塞回 LLM。行业默认“全量历史重传”是必须付出的代价,可真实生产环境里,这部分重复计算往往占…...

在Android上构建移动Linux工作站:Termux安装与CentOS部署实战

1. 为什么要在Android上跑Linux? 几年前我在出差时遇到一个紧急bug需要修复,但手边只有手机。当时就萌生了把手机改造成移动工作站的念头。经过多次尝试,发现TermuxCentOS的组合堪称移动开发神器。想象一下:在地铁上调试Python脚本…...

FPGA丨中值滤波算法:从理论到硬件实现的工程化解析

1. 中值滤波算法原理与硬件适配性分析 中值滤波本质上是一种基于排序统计的非线性信号处理技术,它的核心思想是把每个像素点的值替换为其邻域内所有像素值的中值。这种处理方式对椒盐噪声特别有效,因为噪声点通常表现为极值,而中值选取能自然…...

Windows11+VS2022驱动开发环境配置实战:从零到驱动编译

1. 环境准备:Windows11与VS2022的完美组合 第一次接触Windows驱动开发的朋友可能会觉得门槛很高,但实际只要环境配置正确,整个过程就像搭积木一样简单。我最近在Windows11 22H2系统上实测了VS2022WDK的开发环境搭建,整个过程比想象…...

HC-05与JDY-09蓝牙模块AT指令实战:从配置到故障排查

1. 蓝牙模块基础认知:无线串口的秘密 刚接触嵌入式开发时,我最头疼的就是各种线缆缠绕。直到发现蓝牙模块这个神器——它本质上就是个无线串口转换器。想象一下,把单片机TX/RX线剪断,中间加上蓝牙模块,数据就能在空中飞…...

从Simulink仿真到DSP28335真机部署:PID闭环控制快速移植指南

从Simulink仿真到DSP28335真机部署:PID闭环控制快速移植指南 在控制算法开发领域,Simulink仿真与嵌入式硬件实现之间往往存在一道难以逾越的鸿沟。许多工程师能够轻松设计出仿真效果优异的PID控制器,却在将其部署到DSP28335等嵌入式平台时遭遇…...

方向向量在游戏开发中如何应用,高数下空间几何到底有什么用处

数学概念程序员应用领域核心作用方向向量计算机图形学、游戏开发、机器人学、计算机视觉、物理引擎描述物体朝向、光线方向、运动方向,是空间变换和计算的基础。空间几何(直线/平面方程)3D建模、碰撞检测、路径规划、增强现实(AR)、虚拟现实(…...

你的 Vue 3 defineAsyncComponent(),VuReact 会编译成什么样的 React?

VuReact 是一个能将 Vue 3 代码编译为标准、可维护 React 代码的工具。今天就带大家直击核心:Vue 中用于异步组件的 defineAsyncComponent() 经过 VuReact 编译后会变成什么样的 React 代码? 前置约定 为避免示例代码冗余导致理解偏差,先明…...

Floccus实现跨浏览器书签同步

1. 关于Floccus Floccus是一款浏览器插件, 依赖Nextcloud,坚果云或者Google Drive等云端存储实现不同浏览器之间的书签同步 官网地址: https://floccus.org Github地址: https://github.com/floccusaddon/floccus 2. 云盘选择 Nextcloud(自行搭建), 坚果云(支持WebDAV 协议)…...

带式机、回转窑、竖炉球团

链篦机回转窑工艺介绍(链回环工艺)竖炉球团可以改造增加链箅机,链箅机是履带式传热设备,在球团生产工艺过程中是承担干燥和预热工序的一种机器。 链篦机是将含铁料球布在慢速动行的篦板上,利用环冷机余热及回转窑排出的…...

告别手动记录!用CAPL脚本的file函数实现CANoe测试数据自动归档

告别手动记录!用CAPL脚本的file函数实现CANoe测试数据自动归档 在汽车电子测试领域,工程师们每天都要处理海量的总线信号、故障码和测试结果数据。传统的手动记录方式不仅效率低下,还容易引入人为错误。想象一下,在连续8小时的耐久…...

Payment扩展开发:如何自定义支付网关和添加新支付渠道

Payment扩展开发:如何自定义支付网关和添加新支付渠道 【免费下载链接】payment Payment是php版本的支付聚合第三方sdk,集成了微信支付、支付宝支付、招商一网通支付。提供统一的调用接口,方便快速接入各种支付、查询、退款、转账能力。服务端…...

Reko高级脚本编程:自动化反编译与代码分析的终极指南

Reko高级脚本编程:自动化反编译与代码分析的终极指南 【免费下载链接】reko Reko is a binary decompiler. 项目地址: https://gitcode.com/gh_mirrors/re/reko Reko是一款功能强大的二进制反编译工具,通过其高级脚本编程功能,用户可以…...

POC-bomber漏洞分类指南:框架、中间件、端口服务全覆盖

POC-bomber漏洞分类指南:框架、中间件、端口服务全覆盖 【免费下载链接】POC-bomber 利用大量高威胁poc/exp快速获取目标权限,用于渗透和红队快速打点 项目地址: https://gitcode.com/gh_mirrors/po/POC-bomber POC-bomber是一款功能强大的漏洞检…...

微服务架构与云原生开发:Guia do Desenvolvedor Back-end高级架构指南

微服务架构与云原生开发:Guia do Desenvolvedor Back-end高级架构指南 【免费下载链接】guiadobackend Nesse guia voc encontrar tudo para se torna um desenvolvedor back-end, dessa maneira, encontrar mapas mentais, cursos, trilhas e outras ferramentas p…...

ELECTRA预训练数据集构建:从原始文本到训练样本的完整流程

ELECTRA预训练数据集构建:从原始文本到训练样本的完整流程 【免费下载链接】electra ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators 项目地址: https://gitcode.com/gh_mirrors/el/electra ELECTRA(Pre-trainin…...

【万字文档+PPT+源码】基于springboot+vue电影院管理系统-计算机专业项目设计分享

【万字文档PPT源码】基于springbootvue电影院管理系统-计算机专业项目设计分享 【万字文档PPT源码】基于springbootvue电影院管理系统-可用于毕设-课程设计-练手学习【万字文档PPT源码】基于springbootvue电影院管理系统-计算机专业项目设计分享 摘 要 在飞速发展的今天&…...

【万字文档+PPT+源码】基于springboot+vue个性化课程推荐系统-计算机专业项目设计分享

【万字文档PPT源码】基于springbootvue个性化课程推荐系统-计算机专业项目设计分享 【万字文档PPT源码】基于springbootvue个性化课程推荐系统-可用于毕设-课程设计-练手学习【万字文档PPT源码】基于springbootvue个性化课程推荐系统-计算机专业项目设计分享 摘 要 随着计算机…...