当前位置: 首页 > article >正文

Nomic-Embed-Text-V2-MoE全栈开发:Node.js后端API服务搭建指南

Nomic-Embed-Text-V2-MoE全栈开发Node.js后端API服务搭建指南你是不是也遇到过这样的场景手头有一个用Python写的、效果很棒的Nomic-Embed-Text-V2-MoE模型想把它集成到你的Web应用里但前端是JavaScript生态后端又不想完全用Python来写感觉技术栈有点拧巴。没错这就是很多全栈开发者会面临的现实问题。模型是Python的但业务系统可能是Node.js的强行混在一起部署和维护都挺麻烦。今天我就来分享一个比较清爽的解决方案用Node.js和Express框架搭建一个专门提供文本嵌入服务的RESTful API。前端应用通过简单的HTTP请求就能拿到文本向量后端则负责调用Python模型两边各司其职架构清晰多了。用这种方式你可以把模型推理这部分相对“重”的逻辑封装起来对外只暴露一个轻量的API接口。无论是Web前端、移动端还是其他微服务都能方便地调用。下面我就带你一步步把它实现出来。1. 项目目标与环境准备在开始敲代码之前我们先明确一下这次要完成的事情。核心目标是构建一个服务它接收一段文本调用Nomic-Embed-Text-V2-MoE模型计算出对应的向量然后把向量结果通过JSON格式返回给调用方。整个技术栈会这样分工Node.js Express: 作为HTTP服务器处理API请求和响应这是我们的主战场。Python脚本: 封装模型加载和推理的具体逻辑它是个“专家”只负责计算。通信桥梁: 用Node.js的child_process模块来调用Python脚本这是一种简单直接的跨语言调用方式。首先你得确保电脑上已经装好了Node.js和Python。打开终端分别检查一下版本node --version python --version我建议Node.js版本在16以上Python版本在3.8以上这样兼容性比较好。如果还没安装可以去官网下载安装包过程很简单这里就不赘述了。接下来我们创建一个新的项目目录并初始化Node.js项目。mkdir nomic-embed-api cd nomic-embed-api npm init -y这个命令会生成一个package.json文件记录项目的基本信息和依赖。然后安装我们需要的核心依赖包。主要是Express框架以及一些辅助工具。npm install express cors npm install --save-dev nodemon dotenvexpress: 我们的Web框架。cors: 用来处理跨域请求的中间件方便前端调用。nodemon: 开发工具监听文件变化自动重启服务提升开发效率。dotenv: 用来加载环境变量把配置比如端口号、模型路径从代码里分离出来更安全、更灵活。2. 构建核心的Node.js API服务环境准备好后我们来搭建服务的骨架。在项目根目录下创建两个文件.env和app.js。.env文件用来存放配置PORT3000 MODEL_PATH./models/nomic-embed-text-v2-moe PYTHON_SCRIPT_PATH./scripts/embed.pyapp.js是我们的主服务入口文件require(dotenv).config(); // 加载环境变量 const express require(express); const cors require(cors); const { spawn } require(child_process); // 用于调用Python脚本 const path require(path); const app express(); const PORT process.env.PORT || 3000; // 中间件配置 app.use(cors()); // 启用CORS允许跨域请求 app.use(express.json()); // 解析JSON格式的请求体 app.use(express.urlencoded({ extended: true })); // 解析URL-encoded格式的请求体 // 一个简单的健康检查端点 app.get(/health, (req, res) { res.json({ status: OK, message: Embedding API is running }); }); // 核心的文本嵌入端点 app.post(/embed, async (req, res) { const { text } req.body; if (!text || typeof text ! string) { return res.status(400).json({ error: Invalid input. Please provide a text string in the request body. }); } console.log(Received embedding request for text: ${text.substring(0, 50)}...); // 调用Python脚本进行推理 try { const embedding await getEmbeddingFromPython(text); res.json({ text: text, embedding: embedding, dimension: embedding.length }); } catch (error) { console.error(Error during embedding generation:, error); res.status(500).json({ error: Failed to generate embedding, details: error.message }); } }); // 封装调用Python进程的函数 function getEmbeddingFromPython(text) { return new Promise((resolve, reject) { // 获取Python脚本的绝对路径 const pythonScriptPath path.resolve(process.env.PYTHON_SCRIPT_PATH); // 启动Python子进程 const pythonProcess spawn(python, [pythonScriptPath], { stdio: [pipe, pipe, pipe] }); let outputData ; let errorData ; // 接收Python脚本的标准输出即嵌入向量 pythonProcess.stdout.on(data, (data) { outputData data.toString(); }); // 接收Python脚本的错误输出 pythonProcess.stderr.on(data, (data) { errorData data.toString(); }); // 进程结束事件 pythonProcess.on(close, (code) { if (code ! 0) { reject(new Error(Python script exited with code ${code}: ${errorData})); return; } try { // 假设Python脚本输出的是JSON字符串包含一个embedding数组 const result JSON.parse(outputData); resolve(result.embedding); } catch (parseError) { reject(new Error(Failed to parse Python script output: ${parseError.message}. Output was: ${outputData})); } }); // 向Python进程的标准输入发送文本数据 pythonProcess.stdin.write(JSON.stringify({ text: text }) \n); pythonProcess.stdin.end(); }); } // 启动服务器 app.listen(PORT, () { console.log( Embedding API server is running on http://localhost:${PORT}); });这段代码做了几件关键事情创建了一个Express应用配置了必要的中间件。定义了一个/health端点用于健康检查。定义了一个/embed端点这是我们的核心。它接收POST请求从请求体中拿到文本。在/embed端点内部调用getEmbeddingFromPython函数。这个函数会启动一个Python子进程把文本传给它然后等待Python进程返回计算结果。最后把计算得到的向量包装成JSON响应回去。现在服务端的架子搭好了但还缺真正干活的“工人”——Python脚本。3. 创建Python模型推理脚本Node.js服务负责接待和派活具体的模型计算还得靠Python。我们在项目里创建一个scripts目录然后在里面新建embed.py文件。# scripts/embed.py import sys import json import torch from transformers import AutoModel, AutoTokenizer import numpy as np # 初始化模型和分词器使用缓存避免每次调用都重复加载 MODEL_NAME nomic-ai/nomic-embed-text-v2-moe tokenizer None model None def load_model(): 惰性加载模型只在第一次调用时加载 global tokenizer, model if tokenizer is None or model is None: print(fLoading model {MODEL_NAME}..., filesys.stderr) tokenizer AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_codeTrue) model AutoModel.from_pretrained(MODEL_NAME, trust_remote_codeTrue) model.eval() # 设置为评估模式 print(Model loaded successfully., filesys.stderr) return tokenizer, model def get_embedding(text): 计算输入文本的嵌入向量 tokenizer, model load_model() # 对文本进行编码 inputs tokenizer(text, return_tensorspt, paddingTrue, truncationTrue, max_length8192) # 不计算梯度进行推理 with torch.no_grad(): outputs model(**inputs) # 通常使用最后一层隐藏状态的平均值作为句子向量 # 注意具体使用哪个层、如何池化需要根据Nomic-Embed-Text-V2-MoE的文档调整 embeddings outputs.last_hidden_state.mean(dim1).squeeze().numpy() # 将numpy数组转换为Python列表以便JSON序列化 return embeddings.tolist() if __name__ __main__: # 从标准输入读取数据 for line in sys.stdin: try: data json.loads(line.strip()) input_text data.get(text, ) if not input_text: result {error: No text provided} else: embedding_vector get_embedding(input_text) result {embedding: embedding_vector} # 将结果输出到标准输出 print(json.dumps(result)) sys.stdout.flush() # 确保立即输出 except json.JSONDecodeError: print(json.dumps({error: Invalid JSON input})) sys.stdout.flush() except Exception as e: print(json.dumps({error: str(e)})) sys.stdout.flush()这个Python脚本扮演了一个独立计算单元的角色load_model函数负责加载模型和分词器并且用了全局变量来缓存避免每次调用都重新加载这对性能至关重要。get_embedding函数是核心它接收文本进行编码、模型推理最后输出向量。这里我用了最后一层隐藏状态的平均值作为句子向量这是一个常见做法。但你需要特别注意不同的嵌入模型可能有不同的推荐用法最好查阅Nomic-Embed-Text-V2-MoE的官方文档看看他们建议用什么池化方法。脚本的主循环从标准输入(sys.stdin)读取JSON格式的文本调用get_embedding计算再把结果写成JSON格式输出到标准输出(sys.stdout)。这种通过标准输入输出通信的方式正是Node.js子进程能调用它的关键。4. 测试与运行你的API代码都写完了我们来试试看它能不能跑通。首先确保你的Python环境已经安装了必要的库。在终端里运行pip install torch transformers然后回到项目根目录启动我们的Node.js服务。因为我们安装了nodemon可以用它来启动这样修改代码后会自动重启。在package.json的scripts字段里添加一个启动命令{ scripts: { start: node app.js, dev: nodemon app.js } }现在运行开发命令npm run dev如果看到终端输出 Embedding API server is running on http://localhost:3000说明服务启动成功了。接下来我们测试一下API。你可以用任何喜欢的工具比如curl、Postman或者写一个简单的测试脚本。这里我用curl来演示curl -X POST http://localhost:3000/embed \ -H Content-Type: application/json \ -d {text: 全栈开发如何集成AI模型}如果一切正常你会收到一个JSON响应里面包含了输入的文本和对应的长串向量数组以及向量的维度。你也可以在浏览器里访问http://localhost:3000/health应该会看到健康检查的成功信息。5. 前端调用与生产环境考量API跑通后前端调用就非常简单了。在任何JavaScript项目中你都可以使用fetch或者axios来调用这个嵌入服务。// 前端调用示例 (使用fetch) async function getTextEmbedding(text) { try { const response await fetch(http://你的服务器地址:3000/embed, { method: POST, headers: { Content-Type: application/json, }, body: JSON.stringify({ text: text }), }); if (!response.ok) { throw new Error(HTTP error! status: ${response.status}); } const data await response.json(); console.log(Generated embedding dimension:, data.dimension); return data.embedding; // 这是一个浮点数数组 } catch (error) { console.error(Failed to fetch embedding:, error); return null; } } // 使用示例 getTextEmbedding(这是一个测试句子).then(embedding { if (embedding) { // 在这里使用向量比如进行相似度计算、存入向量数据库等 console.log(Embedding vector:, embedding); } });把服务部署到生产环境时有几个点需要考虑性能与并发目前的简单实现每次请求都启动一个Python进程开销较大。对于生产环境可以考虑使用gRPC或者HTTP服务器如用FastAPI包装Python模型来提供更高效的进程间通信甚至用模型服务化框架如Triton Inference Server来管理模型。错误处理与健壮性需要增强错误处理比如模型加载失败、输入文本过长、进程僵死等情况。安全增加API密钥认证、请求限流、输入文本过滤等安全措施。可观测性添加日志记录、性能指标监控如请求延迟、错误率。部署可以使用Docker将Node.js服务和Python环境一起容器化确保环境一致性。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

Nomic-Embed-Text-V2-MoE全栈开发:Node.js后端API服务搭建指南

Nomic-Embed-Text-V2-MoE全栈开发:Node.js后端API服务搭建指南 你是不是也遇到过这样的场景?手头有一个用Python写的、效果很棒的Nomic-Embed-Text-V2-MoE模型,想把它集成到你的Web应用里,但前端是JavaScript生态,后端…...

C语言实战:四种算法求最大公约数,哪种更适合你的项目?

C语言实战:四种算法求最大公约数,哪种更适合你的项目? 在嵌入式开发、密码学运算或性能敏感型系统中,最大公约数(GCD)计算常作为基础组件出现。选择不当的算法可能导致实时系统延迟、高并发服务吞吐量下降&…...

VMware Workstation Pro 16虚拟硬盘扩容实战:从分区到永久挂载全流程

VMware Workstation Pro 16虚拟硬盘扩容全流程指南:从分区规划到永久挂载 当你在VMware虚拟机中运行Windows或Linux系统时,是否经常遇到"磁盘空间不足"的警告?作为一款强大的虚拟化工具,VMware Workstation Pro 16提供了…...

CANoe 15.0+VT System实战:手把手教你配置实时处理器VT6000的VTP平台

CANoe 15.0与VT6000实战:VTP平台高效配置指南 在新能源汽车电子控制系统测试领域,Vector公司的CANoe软件与VT System硬件组合已成为行业标杆解决方案。随着CANoe 15.0版本的发布,其集成的Vector Tool Platform(VTP)为V…...

紧急!Dify v0.12.3升级后Token统计偏差达±34.7%——生产环境监控校准指南(附校验脚本+Diff测试用例)

第一章:紧急!Dify v0.12.3升级后Token统计偏差达34.7%——生产环境监控校准指南(附校验脚本Diff测试用例)Dify v0.12.3 版本在 token 计数器底层逻辑中引入了对 tiktoken 编码器的缓存策略变更,导致在含多语言混合、特…...

学术党必备!用Pdfarranger高效处理双栏论文PDF的5个实用技巧

学术党必备!用Pdfarranger高效处理双栏论文PDF的5个实用技巧 作为一名常年与学术论文打交道的科研人员,最头疼的莫过于阅读双栏排版的PDF文献——狭窄的页边距让批注无处安放,频繁左右滚动屏幕又容易打断思路。直到发现Pdfarranger这款开源工…...

Clawdbot汉化版镜像免配置:预装pnpm+Node 20+Ollama 0.3.10,省去90%环境踩坑

Clawdbot汉化版镜像免配置:预装pnpmNode 20Ollama 0.3.10,省去90%环境踩坑 1. 为什么选择Clawdbot汉化版镜像? 如果你曾经尝试过部署AI聊天机器人,一定经历过这样的痛苦:Node版本不对、依赖包冲突、环境配置复杂、模…...

树莓派5性能实测:用Samba共享NVMe SSD能跑多快?附4K视频传输对比数据

树莓派5 NAS性能深度评测:NVMe SSD与USB3.0的Samba传输对决 当树莓派5遇上PCIe NVMe SSD,这个小巧的单板计算机瞬间变身高性能网络存储中心。作为2023年发布的树莓派最新型号,树莓派5首次带来了真正的PCIe接口支持,这彻底改变了以…...

零基础玩转BERT文本分割:中文长文档自动分段保姆级教程

零基础玩转BERT文本分割:中文长文档自动分段保姆级教程 1. 为什么你需要文本自动分段? 在日常工作和学习中,我们经常会遇到这样的困扰:面对大段没有分段的文字,阅读起来费时费力。特别是会议记录、访谈稿、学术论文等…...

PayPal中国账户交易被拒?手把手教你解决跨境支付难题

PayPal跨境支付实战指南:破解中国账户交易限制的6种高阶方案 跨境支付的最后一公里,往往卡在PayPal账户的地域限制上。上周我的团队刚帮一家深圳的SaaS公司解决了这个问题——他们的欧洲客户无法通过PayPal完成订阅支付,后台却只显示"为…...

AI辅助开发实战:基于YOLOv11与大模型的口罩检测系统毕业设计全流程解析

最近在帮学弟做毕业设计,发现很多同学在AI项目开发中都会遇到一些共性问题。特别是当需要把目标检测模型和AI大模型结合起来时,各种兼容性、部署和性能问题就冒出来了。这次我们以“口罩检测系统”这个经典课题为例,完整走一遍从选型到部署的…...

SAP FICO会计凭证自动拆分实战:从配置到BADI实现全流程解析

SAP FICO会计凭证自动拆分实战:从配置到BADI实现全流程解析 在SAP FICO模块的实际项目实施中,会计凭证行项目数量超过系统限制是一个常见痛点。当业务单据包含大量行项目时,传统的凭证处理方式往往会遇到行号溢出的技术瓶颈。本文将深入剖析S…...

SER5 Pro迷你主机折腾记:ESXi 6.7+OpenWRT+群晖NAS三合一保姆级教程

SER5 Pro迷你主机全能实验室:从硬件解析到三系统无缝整合实战 零刻SER5 Pro这款AMD Ryzen 7 5800H加持的迷你主机,正在重新定义家庭实验室的性价比边界。当大多数用户还在为选择单一功能设备犹豫时,我们已经可以用这台巴掌大的机器同时承载虚…...

Markdown Viewer:革新文档预览体验的浏览器扩展

Markdown Viewer:革新文档预览体验的浏览器扩展 【免费下载链接】markdown-viewer Markdown Viewer / Browser Extension 项目地址: https://gitcode.com/gh_mirrors/ma/markdown-viewer Markdown Viewer作为一款高效的开源工具,通过在浏览器中直…...

重塑暗黑体验:d2s-editor如何释放玩家创作自由

重塑暗黑体验:d2s-editor如何释放玩家创作自由 【免费下载链接】d2s-editor 项目地址: https://gitcode.com/gh_mirrors/d2/d2s-editor 在暗黑破坏神2的世界里,每一位玩家都曾面临过理想与现实的矛盾:渴望体验多样化的角色build&…...

Ubuntu服务器GPU挖矿病毒排查实战:从异常进程到crontab定时任务清理

Ubuntu服务器GPU挖矿病毒排查实战:从异常进程到crontab定时任务清理 当服务器GPU资源突然被神秘进程占满,而团队成员纷纷表示"这不是我的程序"时,作为系统管理员的警报就该拉响了。上周五凌晨,我们的监控系统突然发出GP…...

Axure电商原型避坑指南:高保真移动端设计中的5个常见错误及解决方案

Axure电商原型避坑指南:高保真移动端设计中的5个常见错误及解决方案 在移动电商领域,高保真原型设计不仅是产品功能的可视化呈现,更是团队协作和用户测试的重要工具。Axure作为专业原型设计工具,能够帮助设计师和产品经理快速构建…...

代理池搭建避坑指南:66代理和西刺代理的爬取与清洗实战

高可用代理池构建实战:从数据采集到智能调度的全链路优化 在数据采集和自动化测试领域,稳定可靠的代理资源是确保业务连续性的关键基础设施。一个设计良好的代理池系统不仅需要解决IP资源的获取问题,更要处理有效性验证、智能调度和异常处理等…...

手把手教你用3D Xpoint加速Python数据分析:比DRAM便宜比SSD快的秘密

3D Xpoint实战指南:用下一代存储技术加速Python数据分析 在数据科学领域,性能瓶颈往往出现在存储I/O层面。传统DRAM虽然速度快但成本高昂且容量有限,而NAND闪存虽然价格亲民却受制于写入延迟和寿命问题。3D Xpoint技术作为存储领域的新星&…...

Typora+Pandoc导出AI生成内容的完整配置指南(附常见问题解决)

TyporaPandoc高效导出AI生成内容的终极实践指南 在内容创作领域,AI生成文本正以惊人的速度改变着工作流程。无论是技术文档、市场分析还是学术论文草稿,我们每天都要处理大量来自ChatGPT、Claude等工具的Markdown格式输出。但将这些内容快速转化为客户或…...

RetinaFace在网络安全中的应用:人脸识别身份验证系统

RetinaFace在网络安全中的应用:人脸识别身份验证系统 1. 引言 想象一下这样的场景:每天上班不用再找工卡,回家不用掏钥匙,登录系统不用记密码——只需要看一眼摄像头,门就自动打开,系统就自动登录。这不是…...

电信光猫隐藏的VOIP功能揭秘:不用座机也能打电话(EasySip实战)

电信光猫隐藏的VOIP功能实战:无需座机实现高清通话 家里那台默默工作的电信光猫,可能藏着比你想象更强大的能力。当大多数用户仅将其视为宽带接入设备时,它内置的VOIP语音模块早已能实现专业级通话质量。传统座机正在退出历史舞台&#xff0c…...

DamoFD模型训练指南:从零开始构建自定义数据集

DamoFD模型训练指南:从零开始构建自定义数据集 1. 引言 想不想拥有一个能精准识别特定人群的人脸检测模型?比如专门识别你公司员工的门禁系统,或者专门检测儿童的安全监控应用?通用的人脸检测模型虽然强大,但在特定场…...

开源字体实战指南:Source Han Serif CN数字产品应用全解析

开源字体实战指南:Source Han Serif CN数字产品应用全解析 【免费下载链接】source-han-serif-ttf Source Han Serif TTF 项目地址: https://gitcode.com/gh_mirrors/so/source-han-serif-ttf 一、核心价值:为何选择开源字体构建现代数字产品 评…...

不用ROS2也能玩转Unitree机器人:Python SDK2实时控制实战(附舞蹈脚本)

不用ROS2也能玩转Unitree机器人:Python SDK2实时控制实战(附舞蹈脚本) 1. 为什么选择Unitree Python SDK2? 对于机器人开发者来说,ROS2虽然功能强大,但其复杂的架构和陡峭的学习曲线常常让人望而却步。Unit…...

Fyne布局系统完全指南:从VBox到自定义布局的7种实战技巧(2023最新版)

Fyne布局系统完全指南:从VBox到自定义布局的7种实战技巧(2023最新版) 在构建现代GUI应用时,布局系统往往是决定用户体验的关键因素。Fyne作为Go语言生态中最受欢迎的GUI工具包之一,其布局系统既保留了简单易用的特性&a…...

企业微信集成固定资产管理系统:一站式解决方案

1. 企业微信与固定资产管理的完美结合 最近几年,越来越多的企业开始使用企业微信作为日常办公平台。作为一款集即时通讯、OA办公、应用集成于一体的企业级工具,企业微信正在改变着传统的工作方式。而固定资产管理作为企业日常运营中不可或缺的一环&#…...

一款前端PDF插件

EmbedPDF 一款Web PDF查看器,基于PDFium WebAssembly渲染,可快速集成到任何JavaScript项目(React、Vue、Svelte、原生JS等),提供开箱即用与无头组件两种模式。 一、核心优势 框架无关:完美兼容React、Vue、…...

AI飞速发展,软件工程师如何生存,实现不可替代

AI正在以飞速发展替代传统行业,软件工程师如何生存,是拥抱AI还是自我技术提升,实现不可替代?这是一个非常现实且紧迫的问题。AI 对软件行业的冲击已经不是“未来时”,而是“进行时”。面对 AI 的飞速发展,软…...

SAP中MBST与MIGO 102冲销操作在凭证追溯中的差异及实际应用解析

1. SAP冲销操作的基本概念与业务场景 在SAP物料管理(MM)模块中,冲销操作是日常业务中频繁使用的核心功能。想象一下这样的场景:仓库管理员小张在系统中录入了一笔采购收货,但随后发现实际到货数量与系统记录存在差异。…...