【Elasticsearch】inference ingest pipeline
Elasticsearch 的 Ingest Pipeline 功能允许你在数据索引之前对其进行预处理。通过使用 Ingest Pipeline,你可以执行各种数据转换和富化操作,包括使用机器学习模型进行推理(inference)。这在处理词嵌入、情感分析、图像识别等场景中非常有用。
### 使用 Inference Ingest Pipeline
以下是一个详细的步骤,展示如何使用 Inference Ingest Pipeline 在 Elasticsearch 中加载和使用预训练的机器学习模型来进行推理。
### 步骤 1: 准备机器学习模型
首先,你需要准备一个预训练的机器学习模型,并将其部署到 Elasticsearch 的机器学习模块中。Elasticsearch 支持多种模型格式,包括 TensorFlow、PyTorch、ONNX 等。
#### 示例:上传 TensorFlow 模型
1. **下载或训练模型**:确保你有一个 TensorFlow 模型文件(例如,`.pb` 文件)。
2. **上传模型**:使用 Elasticsearch 的机器学习 API 将模型上传到 Elasticsearch。
```json
PUT _ml/trained_models/my_word_embedding_model
{
"input": {
"field_names": ["text"]
},
"inference_config": {
"natural_language_inference": {
"results_field": "inference_results"
}
},
"model": {
"definition": {
"path": "path/to/your/model.pb"
}
}
}
```
### 步骤 2: 创建 Ingest Pipeline
创建一个 Ingest Pipeline,使用刚刚上传的模型进行推理。
```json
PUT _ingest/pipeline/word_embedding_pipeline
{
"description": "Pipeline to add word embeddings using a trained model",
"processors": [
{
"inference": {
"model_id": "my_word_embedding_model",
"target_field": "embedding"
}
}
]
}
```
### 步骤 3: 使用 Ingest Pipeline 索引数据
在索引数据时,指定使用创建的 Ingest Pipeline。
```json
POST word_embeddings/_doc?pipeline=word_embedding_pipeline
{
"word": "example"
}
```
### 示例:完整流程
以下是一个完整的示例,展示如何从头开始创建和使用 Inference Ingest Pipeline。
#### 1. 上传模型
```json
PUT _ml/trained_models/my_word_embedding_model
{
"input": {
"field_names": ["text"]
},
"inference_config": {
"natural_language_inference": {
"results_field": "inference_results"
}
},
"model": {
"definition": {
"path": "path/to/your/model.pb"
}
}
}
```
#### 2. 创建 Ingest Pipeline
```json
PUT _ingest/pipeline/word_embedding_pipeline
{
"description": "Pipeline to add word embeddings using a trained model",
"processors": [
{
"inference": {
"model_id": "my_word_embedding_model",
"target_field": "embedding"
}
]
}
```
#### 3. 创建索引
```json
PUT word_embeddings
{
"mappings": {
"properties": {
"word": {
"type": "keyword"
},
"embedding": {
"type": "dense_vector",
"dims": 100 // 根据你的词嵌入模型的维度设置
}
}
}
}
```
#### 4. 索引数据
```json
POST word_embeddings/_doc?pipeline=word_embedding_pipeline
{
"word": "example"
}
```
### 验证结果
你可以通过查询索引来验证数据是否正确索引,并且词嵌入向量是否已添加。
```json
GET word_embeddings/_search
{
"query": {
"match": {
"word": "example"
}
}
}
```
### 注意事项
1. **模型路径**:确保模型文件路径正确,并且 Elasticsearch 有权限访问该路径。
2. **模型格式**:Elasticsearch 支持多种模型格式,确保你使用的模型格式与 Elasticsearch 兼容。
3. **性能**:Inference Ingest Pipeline 可能会影响索引性能,特别是在处理大量数据时。考虑在生产环境中进行性能测试。
通过以上步骤,你可以在 Elasticsearch 中使用 Inference Ingest Pipeline 对数据进行预处理,从而实现词嵌入的自动计算和存储。希望这些示例和说明能帮助你更好地理解和使用 Elasticsearch 的 Inference Ingest Pipeline 功能。
当你执行以下查询时,Elasticsearch 会返回与 `word` 字段匹配 "example" 的所有文档及其相关信息。假设你已经按照前面的步骤创建了索引并插入了数据,查询结果将包含文档的 `_id`、`_source` 等字段。
### 查询示例
```json
GET word_embeddings/_search
{
"query": {
"match": {
"word": "example"
}
}
}
```
### 返回结果示例
假设你已经索引了一些文档,查询结果可能如下所示:
```json
{
"took": 1,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"skipped": 0,
"failed": 0
},
"hits": {
"total": {
"value": 1,
"relation": "eq"
},
"max_score": 0.2876821,
"hits": [
{
"_index": "word_embeddings",
"_type": "_doc",
"_id": "1",
"_score": 0.2876821,
"_source": {
"word": "example",
"embedding": [0.1, 0.2, ..., 0.100]
}
}
]
}
}
```
### 解释
- **`took`**: 查询花费的时间(毫秒)。
- **`timed_out`**: 查询是否超时。
- **`_shards`**: 分片信息,包括总分片数、成功分片数、跳过分片数和失败分片数。
- **`hits`**: 匹配的文档列表。
- **`total`**: 匹配的文档总数。
- **`max_score`**: 最高评分。
- **`hits`**: 匹配的文档列表,每个文档包含以下字段:
- **`_index`**: 文档所属的索引名称。
- **`_type`**: 文档类型(在Elasticsearch 7.x及更高版本中,类型总是`_doc`)。
- **`_id`**: 文档的唯一标识符。
- **`_score`**: 文档的相关性评分。
- **`_source`**: 文档的原始内容,包括所有字段及其值。
### 示例解释
假设你索引了一个文档,其中 `word` 字段为 "example",`embedding` 字段为 `[0.1, 0.2, ..., 0.100]`,查询结果将返回这个文档的信息。
- **`_index`**: 文档所属的索引名称,这里是 `word_embeddings`。
- **`_type`**: 文档类型,这里是 `_doc`。
- **`_id`**: 文档的唯一标识符,假设为 `1`。
- **`_score`**: 文档的相关性评分,这里是 `0.2876821`。
- **`_source`**: 文档的原始内容,包括 `word` 和 `embedding` 字段。
### 进一步操作
如果你需要进一步处理或过滤结果,可以在查询中添加更多的条件。例如,你可以使用 `size` 参数来限制返回的文档数量,或者使用 `sort` 参数来按特定字段排序。
```json
GET word_embeddings/_search
{
"query": {
"match": {
"word": "example"
}
},
"size": 10,
"sort": [
{ "_score": { "order": "desc" } }
]
}
```
希望这些解释和示例能帮助你更好地理解和使用 Elasticsearch 的查询结果。
PUT _ingest/pipeline/word_embedding_pipeline
{
"description": "Pipeline to add word embeddings using a trained model",
"processors": [
{
"inference": {
"model_id": "my_word_embedding_model",
"target_field": "embedding"
}
]
}这段是干嘛的?
这段代码用于在 Elasticsearch 中创建一个 Ingest Pipeline,该管道将在数据索引之前使用预训练的机器学习模型进行推理(inference),并将推理结果(词嵌入向量)添加到文档中。具体来说,这段代码做了以下几件事:
### 1. 创建 Ingest Pipeline
```json
PUT _ingest/pipeline/word_embedding_pipeline
{
"description": "Pipeline to add word embeddings using a trained model",
"processors": [
{
"inference": {
"model_id": "my_word_embedding_model",
"target_field": "embedding"
}
}
]
}
```
### 详细解释
- **`PUT _ingest/pipeline/word_embedding_pipeline`**:
- 这是一个 HTTP PUT 请求,用于创建一个新的 Ingest Pipeline。`word_embedding_pipeline` 是管道的名称,你可以根据需要选择一个合适的名称。
- **`description`**:
- 这是一个可选字段,用于描述管道的目的。在这里,描述为 "Pipeline to add word embeddings using a trained model",表示这个管道用于使用预训练模型添加词嵌入向量。
- **`processors`**:
- 这是一个数组,包含一个或多个处理器(processors)。每个处理器定义了一个数据处理步骤。
- **`inference`**:
- 这是一个处理器,用于执行机器学习模型的推理。它有两个主要参数:
- **`model_id`**: 指定要使用的预训练模型的 ID。在这个例子中,模型 ID 是 `my_word_embedding_model`。
- **`target_field`**: 指定将推理结果存储到文档中的哪个字段。在这个例子中,推理结果将存储在 `embedding` 字段中。
### 2. 使用 Ingest Pipeline 索引数据
一旦创建了 Ingest Pipeline,你可以在索引数据时指定使用该管道。这样,Elasticsearch 会在数据索引之前自动执行推理,并将结果添加到文档中。
```json
POST word_embeddings/_doc?pipeline=word_embedding_pipeline
{
"word": "example"
}
```
### 示例流程
1. **上传模型**:
- 首先,你需要将预训练的机器学习模型上传到 Elasticsearch。假设你已经上传了一个名为 `my_word_embedding_model` 的模型。
2. **创建 Ingest Pipeline**:
- 使用上述代码创建一个 Ingest Pipeline,该管道将使用 `my_word_embedding_model` 模型进行推理,并将结果存储在 `embedding` 字段中。
3. **索引数据**:
- 在索引数据时,指定使用创建的 Ingest Pipeline。Elasticsearch 将在数据索引之前执行推理,并将结果添加到文档中。
### 示例
假设你已经上传了一个名为 `my_word_embedding_model` 的模型,并创建了 `word_embedding_pipeline` 管道。以下是一个完整的示例:
#### 1. 上传模型
```json
PUT _ml/trained_models/my_word_embedding_model
{
"input": {
"field_names": ["text"]
},
"inference_config": {
"natural_language_inference": {
"results_field": "inference_results"
}
},
"model": {
"definition": {
"path": "path/to/your/model.pb"
}
}
}
```
#### 2. 创建 Ingest Pipeline
```json
PUT _ingest/pipeline/word_embedding_pipeline
{
"description": "Pipeline to add word embeddings using a trained model",
"processors": [
{
"inference": {
"model_id": "my_word_embedding_model",
"target_field": "embedding"
}
}
]
}
```
#### 3. 创建索引
```json
PUT word_embeddings
{
"mappings": {
"properties": {
"word": {
"type": "keyword"
},
"embedding": {
"type": "dense_vector",
"dims": 100 // 根据你的词嵌入模型的维度设置
}
}
}
}
```
#### 4. 索引数据
```json
POST word_embeddings/_doc?pipeline=word_embedding_pipeline
{
"word": "example"
}
```
### 验证结果
你可以通过查询索引来验证数据是否正确索引,并且词嵌入向量是否已添加。
```json
GET word_embeddings/_search
{
"query": {
"match": {
"word": "example"
}
}
}
```
### 返回结果示例
```json
{
"took": 1,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"skipped": 0,
"failed": 0
},
"hits": {
"total": {
"value": 1,
"relation": "eq"
},
"max_score": 0.2876821,
"hits": [
{
"_index": "word_embeddings",
"_type": "_doc",
"_id": "1",
"_score": 0.2876821,
"_source": {
"word": "example",
"embedding": [0.1, 0.2, ..., 0.100]
}
}
]
}
}
```
通过以上步骤,你可以在 Elasticsearch 中使用 Ingest Pipeline 自动处理数据,将词嵌入向量添加到文档中。希望这些解释和示例能帮助你更好地理解和使用 Ingest Pipeline。如果有任何进一步的问题,请随时提问!
相关文章:

【Elasticsearch】inference ingest pipeline
Elasticsearch 的 Ingest Pipeline 功能允许你在数据索引之前对其进行预处理。通过使用 Ingest Pipeline,你可以执行各种数据转换和富化操作,包括使用机器学习模型进行推理(inference)。这在处理词嵌入、情感分析、图像识别等场景…...

AQS公平锁与非公平锁之源码解析
AQS加锁逻辑 ReentrantLock.lock public void lock() {sync.acquire(1);}AbstractQueuedSynchronizer#acquire public final void acquire(int arg) {if (!tryAcquire(arg) &&acquireQueued(addWaiter(Node.EXCLUSIVE), arg))selfInterrupt();}addWaiter就是将节点加入…...
若依框架在企业中的应用调研
若依框架作为一款基于 Spring Boot 的轻量级 Java 快速开发框架,在企业级应用开发中发挥着重要作用。以下是对其在企业中应用的调研情况: 应用现状 广泛应用于多种管理系统:在众多企业中,若依框架常被用于构建各类后台管理系统&a…...
【Day23 LeetCode】贪心算法题
一、贪心算法 贪心没有套路,只有碰运气(bushi),举反例看看是否可行,(运气好)刚好贪心策略的局部最优就是全局最优。 1、分发饼干 455 思路:按照孩子的胃口从小到大的顺序依次满足…...

2025年PHP面试宝典,技术总结。
面试是进入职场的第一道坎,因为我本身学校太一般的问题在面试中遇到了各种不爽,和那些高学历的相比自己真是信心大跌。我面试的方向是php开发工程师,主要做网站后台、APP接口等。下面是我这段时间总结的面试方面的常考常问的知识点࿰…...

Qt中的按钮组:QPushButton、QToolButton、QRadioButton和QCheckBox使用方法(详细图文教程)
💪 图像算法工程师,专业从事且热爱图像处理,图像处理专栏更新如下👇: 📝《图像去噪》 📝《超分辨率重建》 📝《语义分割》 📝《风格迁移》 📝《目标检测》 &a…...

influxdb+grafana+jmeter
influxdb influxd先启动 启动完成后执行 influxdb的端口号 grafana的启动 通过grafana-server.exe启动grafana 启动后打开 http://localhost:8087/...

Net Core微服务入门全纪录(三)——Consul-服务注册与发现(下)
系列文章目录 1、.Net Core微服务入门系列(一)——项目搭建 2、.Net Core微服务入门全纪录(二)——Consul-服务注册与发现(上) 3、.Net Core微服务入门全纪录(三)——Consul-服务注…...

leetcode 479. 最大回文数乘积
题目如下 看完题目后没有想到取巧的办法所以尝试使用枚举法。 使用枚举法之前先回答两个问题: 1. 如何构造回文串? 2. 如何判断是否存在两个n位整数相乘可以得到这个回文串? 显然n位数与n位数相乘必然是2n位数也就是说最大回文整数长度必然…...

独立搭建UI自动化测试框架
🍅 点击文末小卡片,免费获取软件测试全套资料,资料在手,涨薪更快 今天给大家分享一个seleniumtestngmavenant的UI自动化,可以用于功能测试,也可按复杂的业务流程编写测试用例,今天此篇文章不过多…...

62,【2】 BUUCTF WEB [强网杯 2019]Upload1
进入靶场 此处考点不是SQL,就正常注册并登录进去 先随便传一个 进行目录扫描,我先用爆破代替 先随便后面写个文件名 为了提供payload位置 www.tar.gz真的存在 返回浏览器修改url就自动下载了 看到tp5,应该是ThinkPHP5框架 参考此博客的思路方法c[强网杯…...

Spring Boot 整合 ShedLock 处理定时任务重复执行的问题
🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》…...

常见Arthas命令与实践
Arthas 官网:https://arthas.aliyun.com/doc/,官方文档对 Arthas 的每个命令都做出了介绍和解释,并且还有在线教程,方便学习和熟悉命令。 Arthas Idea 的 IDEA 插件。 这是一款能快速生成 Arthas命令的插件,可快速生成…...
Glide加载gif遇到的几个坑
Glide本身支持gif格式的动画加载,但是大多数情况下我们用Glide都是去加载一些静态图片,加载gif动态图的需求不是很多,因此这次使用Glide加载gif就遇到了一些令人匪夷所思的问题 问题一:加载gif图片会有明显的卡顿 通常情况下我们…...

STM32学习之通用定时器
1.1通用定时器介绍 通用定时器具有基本定时器的所有特征,基本定时器只能递增计数,而通用定时器可以递减计数,可以中心对齐计数;也可以触发ADC和DAC,同时在更新事件,触发事件,输入捕获ÿ…...

MiniMax-Text-01——模型详细解读与使用
MiniMax发布了最新的旗舰款模型,MiniMax-Text-01。这是一个456B参数的MOE模型,支持最大4M上下文。今天我们来解读一下这个模型,最后会讲一下模型的使用方式和价格。 先来看整体指标,以下图表分为三块指标,分别是文本能…...

Redis的Windows版本安装以及可视化工具
文章目录 redis安装redis安装包下载解压文件夹启动redis服务Redis路径配置环境变量打开redis客户端进行连接基础操作测试 redis可视化工具下载Redis Desktop Manager redis安装 redis安装包下载 windows版本readis下载:Releases tporadowski/redis 解压文件夹 我…...

tensorflow源码编译在C++环境使用
https://tensorflow.google.cn/install/source?hlzh-cn查看tensorflow和其他需要下载软件对应的版本,最好一模一样 1、下载TensorFlow源码 https://github.com/tensorflow/tensorflow 2、安装编译protobuf(3.9.2) protobuf版本要和TensorFlo…...
第四届机器学习、云计算与智能挖掘国际会议
一、会议信息 会议名称:第四届机器学习、云计算与智能挖掘国际会议(MLCCIM 2025) 会议地点:中国漠河 会议时间:2025年7月21-25日 支持单位:佛山市人工智能学会、佛山大学 二、大会主席 …...

#漏洞挖掘# 一文了解什么是Jenkins未授权访问!!!
免责声明 本教程仅为合法的教学目的而准备,严禁用于任何形式的违法犯罪活动及其他商业行为,在使用本教程前,您应确保该行为符合当地的法律法规,继续阅读即表示您需自行承担所有操作的后果,如有异议,请立即停…...

QT QListWidget控件 全面详解
本系列文章全面的介绍了QT中的57种控件的使用方法以及示例,包括 Button(PushButton、toolButton、radioButton、checkBox、commandLinkButton、buttonBox)、Layouts(verticalLayout、horizontalLayout、gridLayout、formLayout)、Spacers(verticalSpacer、horizontalSpacer)、…...

【Vim Masterclass 笔记25】S10L45:Vim 多窗口的常用操作方法及相关注意事项
文章目录 S10L45 Working with Multiple Windows1 水平分割窗口2 在水平分割的新窗口中显示其它文件内容3 垂直分割窗口4 窗口的关闭5 在同一窗口水平拆分出多个窗口6 关闭其余窗口7 让四个文件呈田字形排列8 光标在多窗口中的定位9 调节子窗口的尺寸大小10 变换子窗口的位置11…...

包文件分析器 Webpack Bundle Analyzer
webpack-bundle-analyzer 是一个非常有用的工具,用于可视化和分析 Webpack 打包生成的文件。这使得开发者能够更好地理解应用的依赖关系、包的大小,以及优化打包的机会。以下是关于 webpack-bundle-analyzer 的详细介绍,包括它的安装、使用以…...
代码随想录day14
二叉树的反转,采用迭代,只能用前序和后序遍历 /*** Definition for a binary tree node.* struct TreeNode {* int val;* TreeNode *left;* TreeNode *right;* TreeNode() : val(0), left(nullptr), right(nullptr) {}* TreeNode(i…...
react19新API之use()用法总结
React use() Hook 使用指南 概述 use() 是 React 19 引入的新 Hook,它允许你在组件内部直接使用 Promise、Context 和其他可订阅的值。它是一个更通用的数据获取和订阅机制。 基本语法 const value use(resource);主要用途 1. Promise 处理 function UserDet…...

67,【7】buuctf web [HarekazeCTF2019]Avatar Uploader 2(未完成版)
进入靶场 和上一题一母同胞,先把上一题的答案拖进去看看 区别在于上一题这块直接显示了flag,这里并没有 看看源码 加载不出来,ctrlu <!-- 上传头像的提示信息,说明上传要求 --><p>Please upload a PNG image less th…...

ANSYS HFSS 中的相控天线阵列仿真方法
概述 相控天线阵列系统广泛使用,从国防雷达应用到商业 5G 应用。设计这些天线阵列涉及复杂的数学运算,需要全波仿真。Ansys HFSS 全场 3D 电磁仿真软件可以在合理的时间内以较低的计算成本仿真复杂的相控阵天线系统,同时考虑复杂激励、环境&…...

stm32 L051 adc配置及代码实例解析
一 cude的设置: 1. 接口的基本设置: 2. 参数的设置: 二 代码的逻辑: 1. 上面的直接生成代码,然后使用下面源码即可读到adc的数据: void adc_battery_start(void) {uint32_t ADC_value 0;HAL_ADC_Start(&…...

KUKA示教器仿真软件OfficeLite8.6.2,EthernetKRL3.1.3通信
一、准备软件。 1、vmware17.6.1 2、OfficeLite8.6.2 3、EthernetKRL3.1.3 4、KUKA Router 5、EthernetKRL_Server 通过网盘分享的文件:库卡相关软件 链接: https://pan.baidu.com/s/1NwvR3RVP0edLBeZnnnCYvw 提取码: smys 二、安装vmware17.6.1 1、找到下载…...
Erlang语言的并发编程
Erlang语言的并发编程 引言 并发编程是现代软件开发中的一个重要领域,尤其是在面对需要高效处理大量任务的应用时。Erlang是一种专门设计用于并发编程的编程语言,由于其在电信和即时通信系统中的广泛应用,逐渐引起了开发者的关注。Erlang的…...