当前位置: 首页 > article >正文

EmbeddingGemma-300m与MySQL结合:大规模向量存储方案

EmbeddingGemma-300m与MySQL结合大规模向量存储方案1. 引言想象一下这样的场景你的电商平台每天新增数万条商品描述需要快速实现语义搜索功能或者你的内容平台有百万篇文章想要根据用户兴趣智能推荐相关内容。传统的关键词匹配已经无法满足需求而语义相似度搜索成为了新的解决方案。这就是EmbeddingGemma-300m与MySQL结合能够解决的问题。EmbeddingGemma-300m是Google推出的轻量级文本嵌入模型能够将文本转换为768维的向量表示。而MySQL作为最流行的关系型数据库提供了稳定可靠的数据存储能力。将两者结合你就能构建一个既强大又经济的大规模向量存储系统。这种方案特别适合中小型企业和初创公司既不需要投入专门的向量数据库成本又能享受到语义搜索的智能化体验。接下来我将带你一步步实现这个方案。2. 理解EmbeddingGemma-300m的核心能力EmbeddingGemma-300m虽然参数量只有3亿但在文本嵌入任务上表现相当出色。它能够处理100多种语言生成的向量维度为768这意味着每个文本都会被转换成一个包含768个数值的向量。这些向量有一个很神奇的特性语义相似的文本它们的向量在数学空间中的距离也很近。比如智能手机和移动电话的向量距离会很近而智能手机和水果的向量距离就会很远。在实际使用中你可以通过Ollama轻松调用这个模型import ollama # 生成文本嵌入向量 response ollama.embed( modelembeddinggemma:300m, input这是一段需要转换为向量的文本 ) embeddings response.embeddings print(f生成的向量维度: {len(embeddings)})这段代码会返回一个包含768个浮点数的列表这就是你的文本的数学表示。3. MySQL向量存储的数据库设计在设计数据库时我们需要考虑如何高效存储和查询这些向量。MySQL虽然不像专门的向量数据库那样内置了向量索引但通过合理的设计同样能够处理大规模向量数据。3.1 表结构设计CREATE TABLE document_embeddings ( id INT AUTO_INCREMENT PRIMARY KEY, document_id INT NOT NULL, content TEXT NOT NULL, embedding_vector BLOB NOT NULL, embedding_dim INT NOT NULL DEFAULT 768, created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP, updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP, INDEX idx_document_id (document_id), INDEX idx_created_at (created_at) ) ENGINEInnoDB DEFAULT CHARSETutf8mb4;3.2 向量存储策略由于每个向量包含768个浮点数如果直接存储为JSON或文本会占用大量空间。更高效的方式是使用BLOB类型存储序列化的向量数据import pickle import numpy as np import mysql.connector # 将向量序列化为二进制数据 def serialize_vector(vector): return pickle.dumps(np.array(vector, dtypenp.float32)) # 建立数据库连接 def get_db_connection(): return mysql.connector.connect( hostlocalhost, useryour_username, passwordyour_password, databasevector_db )4. 批量操作与性能优化当需要处理大量文本时批量操作是提升性能的关键。以下是一些实用的优化技巧4.1 批量生成嵌入向量def batch_generate_embeddings(texts, batch_size32): 批量生成文本嵌入向量 all_embeddings [] for i in range(0, len(texts), batch_size): batch_texts texts[i:ibatch_size] try: response ollama.embed( modelembeddinggemma:300m, inputbatch_texts ) all_embeddings.extend(response.embeddings) except Exception as e: print(f批量处理失败: {e}) # 失败后尝试单条处理 for text in batch_texts: try: response ollama.embed( modelembeddinggemma:300m, inputtext ) all_embeddings.append(response.embeddings[0]) except Exception as e2: print(f单条处理也失败: {e2}) all_embeddings.append(None) return all_embeddings4.2 批量数据库写入def batch_insert_embeddings(documents, embeddings): 批量插入嵌入向量到数据库 connection get_db_connection() cursor connection.cursor() insert_query INSERT INTO document_embeddings (document_id, content, embedding_vector, embedding_dim) VALUES (%s, %s, %s, %s) batch_data [] for doc_id, (content, embedding) in enumerate(zip(documents, embeddings)): if embedding is not None: serialized_vector serialize_vector(embedding) batch_data.append((doc_id, content, serialized_vector, 768)) # 分批提交避免单次事务过大 batch_size 1000 for i in range(0, len(batch_data), batch_size): batch batch_data[i:ibatch_size] cursor.executemany(insert_query, batch) connection.commit() print(f已插入 {i len(batch)} 条记录) cursor.close() connection.close()5. 向量相似度搜索实现虽然MySQL没有内置的向量索引但我们仍然可以实现基本的相似度搜索功能5.1 余弦相似度计算def cosine_similarity(vec1, vec2): 计算两个向量的余弦相似度 dot_product np.dot(vec1, vec2) norm1 np.linalg.norm(vec1) norm2 np.linalg.norm(vec2) return dot_product / (norm1 * norm2) def search_similar_documents(query_text, top_k10): 搜索相似文档 # 生成查询向量的嵌入 response ollama.embed( modelembeddinggemma:300m, inputquery_text ) query_vector response.embeddings[0] connection get_db_connection() cursor connection.cursor() # 获取所有文档向量在实际应用中应该分页或使用近似搜索 cursor.execute(SELECT id, content, embedding_vector FROM document_embeddings) results cursor.fetchall() similarities [] for doc_id, content, embedding_blob in results: stored_vector pickle.loads(embedding_blob) similarity cosine_similarity(query_vector, stored_vector) similarities.append((doc_id, content, similarity)) # 按相似度排序并返回前top_k个结果 similarities.sort(keylambda x: x[2], reverseTrue) return similarities[:top_k]5.2 分页查询优化对于大规模数据全表扫描显然不现实。我们可以通过预过滤和分页来优化def efficient_search(query_vector, categoryNone, min_dateNone, max_dateNone, limit100): 带过滤条件的高效搜索 connection get_db_connection() cursor connection.cursor() # 构建基础查询 query SELECT id, content, embedding_vector FROM document_embeddings WHERE 11 params [] # 添加过滤条件 if category: query AND category %s params.append(category) if min_date: query AND created_at %s params.append(min_date) if max_date: query AND created_at %s params.append(max_date) cursor.execute(query, params) results cursor.fetchmany(limit) # 只获取限定数量的记录进行比较 # 计算相似度并排序 similarities [] for doc_id, content, embedding_blob in results: stored_vector pickle.loads(embedding_blob) similarity cosine_similarity(query_vector, stored_vector) similarities.append((doc_id, content, similarity)) similarities.sort(keylambda x: x[2], reverseTrue) return similarities6. 实战应用场景6.1 电商商品搜索假设你有一个电商平台想要实现更智能的商品搜索def enhance_product_search(user_query, product_categoryNone): 增强的商品搜索功能 # 生成查询向量 response ollama.embed( modelembeddinggemma:300m, inputuser_query ) query_vector response.embeddings[0] # 在特定类别中搜索相似商品 similar_products efficient_search( query_vector, categoryproduct_category, limit50 ) return similar_products6.2 内容推荐系统def content_recommendation(user_interests, viewed_content_ids): 基于用户兴趣的内容推荐 # 将用户兴趣转换为向量 interest_vectors [] for interest in user_interests: response ollama.embed( modelembeddinggemma:300m, inputinterest ) interest_vectors.append(response.embeddings[0]) # 计算平均兴趣向量 avg_interest_vector np.mean(interest_vectors, axis0) # 排除已经看过的内容 exclude_ids tuple(viewed_content_ids) if viewed_content_ids else None exclude_clause AND id NOT IN %s if exclude_ids else # 搜索相似内容 connection get_db_connection() cursor connection.cursor() query f SELECT id, content, embedding_vector FROM document_embeddings WHERE 11 {exclude_clause} LIMIT 200 params [exclude_ids] if exclude_ids else [] cursor.execute(query, params) results cursor.fetchall() # 计算相似度并返回推荐结果 recommendations [] for doc_id, content, embedding_blob in results: stored_vector pickle.loads(embedding_blob) similarity cosine_similarity(avg_interest_vector, stored_vector) recommendations.append((doc_id, content, similarity)) recommendations.sort(keylambda x: x[2], reverseTrue) return recommendations[:10]7. 性能监控与维护7.1 数据库性能监控def monitor_database_performance(): 监控数据库性能 connection get_db_connection() cursor connection.cursor() # 检查表大小 cursor.execute( SELECT table_name AS Table, ROUND(((data_length index_length) / 1024 / 1024), 2) AS Size (MB) FROM information_schema.TABLES WHERE table_schema vector_db AND table_name document_embeddings ) table_size cursor.fetchone() print(f文档嵌入表大小: {table_size[1]} MB) # 检查索引状态 cursor.execute(SHOW INDEX FROM document_embeddings) indexes cursor.fetchall() print(f索引数量: {len(indexes)}) cursor.close() connection.close()7.2 定期优化策略def maintain_database(): 数据库维护任务 connection get_db_connection() cursor connection.cursor() # 优化表 print(开始优化表...) cursor.execute(OPTIMIZE TABLE document_embeddings) # 分析表状态 cursor.execute(ANALYZE TABLE document_embeddings) # 清理旧数据保留最近3个月 cursor.execute( DELETE FROM document_embeddings WHERE created_at DATE_SUB(NOW(), INTERVAL 3 MONTH) ) deleted_count cursor.rowcount print(f清理了 {deleted_count} 条旧记录) connection.commit() cursor.close() connection.close()8. 总结将EmbeddingGemma-300m与MySQL结合为中小规模的应用提供了一个经济实惠且功能强大的向量存储解决方案。虽然这种方案在处理超大规模数据时可能不如专业的向量数据库但对于大多数实际应用场景来说已经完全够用。在实际使用中关键是要做好数据量的控制定期清理旧数据合理使用过滤条件来缩小搜索范围。同时根据具体业务需求你可能需要调整向量生成的批次大小和数据库的批量操作参数。这个方案的另一个优点是易于理解和维护。由于使用的是常见的MySQL数据库现有的运维团队很容易上手不需要学习新的数据库技术栈。如果你已经在使用MySQL那么引入向量搜索功能的学习成本相对较低。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

EmbeddingGemma-300m与MySQL结合:大规模向量存储方案

EmbeddingGemma-300m与MySQL结合:大规模向量存储方案 1. 引言 想象一下这样的场景:你的电商平台每天新增数万条商品描述,需要快速实现语义搜索功能;或者你的内容平台有百万篇文章,想要根据用户兴趣智能推荐相关内容。…...

5大核心功能深度解析:Umi-OCR开源离线文字识别工具的技术实现与应用指南

5大核心功能深度解析:Umi-OCR开源离线文字识别工具的技术实现与应用指南 【免费下载链接】Umi-OCR OCR software, free and offline. 开源、免费的离线OCR软件。支持截屏/批量导入图片,PDF文档识别,排除水印/页眉页脚,扫描/生成二…...

FRP内网穿透实战:5分钟搞定Linux服务器+Docker部署(含HTTPS配置)

FRP内网穿透实战:Linux服务器与Docker部署全指南 引言 在当今分布式开发和远程办公的浪潮中,内网穿透技术已成为开发者工具箱中不可或缺的一部分。想象一下这样的场景:你正在本地开发一个Web应用,需要让远方的同事实时预览效果&am…...

Python EXE逆向解密实战:从加密打包到源码还原的完整指南

Python EXE逆向解密实战:从加密打包到源码还原的完整指南 【免费下载链接】python-exe-unpacker A helper script for unpacking and decompiling EXEs compiled from python code. 项目地址: https://gitcode.com/gh_mirrors/py/python-exe-unpacker Pytho…...

3步重塑:foobox-cn让您的foobar2000音乐体验焕然一新

3步重塑:foobox-cn让您的foobar2000音乐体验焕然一新 【免费下载链接】foobox-cn DUI 配置 for foobar2000 项目地址: https://gitcode.com/GitHub_Trending/fo/foobox-cn 还在为音乐播放器单调乏味的界面而苦恼吗?foobox-cn是专为foobar2000设计…...

3分钟快速上手BewlyBewly:打造你的专属B站美化体验

3分钟快速上手BewlyBewly:打造你的专属B站美化体验 【免费下载链接】BewlyBewly Just make a few small changes to your Bilibili homepage. (English | 简体中文 | 正體中文 | 廣東話) 项目地址: https://gitcode.com/gh_mirrors/be/BewlyBewly 你是否厌倦…...

从‘带不动’到‘跑满帧’:游戏玩家必懂的显示器带宽与接口选择避坑指南

从‘带不动’到‘跑满帧’:游戏玩家必懂的显示器带宽与接口选择避坑指南 刚入手一台2K 170Hz电竞显示器,却发现刷新率死活上不去?画面时不时出现撕裂或闪烁?别急着怀疑显卡性能,问题可能出在那根被你忽视的连接线上。…...

Mi-Create:零基础打造个性化小米穿戴表盘的完整实战指南

Mi-Create:零基础打造个性化小米穿戴表盘的完整实战指南 【免费下载链接】Mi-Create Unofficial watchface creator for Xiaomi wearables ~2021 and above 项目地址: https://gitcode.com/gh_mirrors/mi/Mi-Create Mi-Create是一款专为小米穿戴设备用户打造…...

ai辅助开发c语言:如何利用快马智能编程助手精通数据结构与算法

今天想和大家分享一个特别实用的学习经验——如何用AI辅助工具高效学习C语言的数据结构与算法。作为一个刚接触数据结构的小白,我在实现单链表时遇到了不少坑,但通过InsCode(快马)平台的AI编程助手,整个过程变得轻松多了。 链表创建与节点插入…...

推荐8款提升论文效率的AI工具(含爱毕业aibiye)和简易使用教程

在学术研究领域,AI技术的应用显著提升了论文写作的效率与质量。以下推荐8款功能强大的智能工具,涵盖文献解析、内容生成、文本优化等关键环节,助力研究者高效完成从资料收集到论文润色的全流程工作。这些创新解决方案能够有效简化研究过程&am…...

ESP32-S3驱动JW01二氧化碳传感器:从供电陷阱到数据解析的实战指南

1. 硬件连接:电压匹配是生死线 第一次拿到JW01传感器时,我像往常一样顺手接上了ESP32-S3开发板的5V引脚——毕竟大多数传感器模块都标着"5V供电"的字样。结果串口监视器里一片死寂,连乱码都没有。翻出万用表测量才发现,…...

用STM32F103C8T6做个宠物喂食器:从电路图到代码的保姆级DIY教程

用STM32F103C8T6打造智能宠物喂食器:从硬件搭建到软件调优全流程解析 养宠物的朋友都知道,定时定量喂食对宠物健康至关重要。今天我们就来手把手教你如何用STM32F103C8T6单片机打造一个智能宠物喂食器,不仅能定时投喂,还能识别不…...

8款实用AI论文生成工具(包括爱毕业aibiye)及新手详细指南

在学术研究领域,AI技术的应用显著提升了论文写作的效率与质量。以下推荐8款功能强大的智能工具,涵盖文献解析、内容生成、文本优化等关键环节,助力研究者高效完成从资料收集到论文润色的全流程工作。这些创新解决方案能够有效简化研究过程&am…...

从四皇后到N皇后:回溯算法的核心思想与实战演练

1. 从棋盘游戏到算法思维:四皇后问题入门 记得我第一次接触四皇后问题时,正坐在大学算法课的教室里。教授用粉笔在黑板上画出一个4x4的棋盘,然后突然转身问我们:"如果让你们来摆放这四个皇后,保证她们互不攻击&am…...

告别盲目复位!用KEIL5的.axf文件实现“热插拔”调试,保留MCU内存状态全记录

深入解析KEIL5调试黑科技:如何通过.axf文件实现MCU内存状态无损调试 调试嵌入式系统时,最令人沮丧的莫过于遇到偶发故障却无法复现现场。传统调试方式往往需要复位MCU,导致宝贵的运行时状态信息瞬间消失。这种"盲人摸象"式的调试体…...

ThingsBoard生产环境部署选型指南:安装包 vs 源码,内存队列 vs RabbitMQ,如何根据项目规模做选择?

ThingsBoard生产环境部署架构选型实战指南 当技术团队准备将ThingsBoard投入实际生产环境时,面临的第一个关键决策往往不是"如何安装",而是"以什么架构安装"。这个选择将直接影响未来三年的系统稳定性、扩展性和运维成本。作为经历过…...

ESP32-S3玩转微雪2.8寸触摸屏:从零到LVGL的保姆级避坑指南(ESP-IDF 5.3)

ESP32-S3与微雪2.8寸触摸屏深度适配:LVGL全流程实战手册 刚拿到微雪2.8寸触摸屏开发板的开发者,往往既兴奋又忐忑——这块搭载ESP32-S3芯片、配备8M PSRAM的硬件平台,理论上能流畅运行LVGL图形库,但实际开发中总会遇到各种"坑…...

DeepSeek-Coder-V2本地化部署指南:构建你的专属AI编程助手

DeepSeek-Coder-V2本地化部署指南:构建你的专属AI编程助手 【免费下载链接】DeepSeek-Coder-V2 DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence 项目地址: https://gitcode.com/GitHub_Trending/de/DeepSeek-Coder-V2 …...

windows java jar 包后台运行

使用 javaw 实现后台运行(简单场景)这是最简单的方法。Java 自带的 javaw.exe 是 java.exe 的变体,它运行程序时不会打开任何控制台窗口。操作步骤:创建一个新的文本文件,命名为 start.bat。在文件中写入以下内容&…...

你的聊天记忆,应该由你掌控:WeChatMsg数据主权完全指南

你的聊天记忆,应该由你掌控:WeChatMsg数据主权完全指南 【免费下载链接】WeChatMsg 提取微信聊天记录,将其导出成HTML、Word、CSV文档永久保存,对聊天记录进行分析生成年度聊天报告 项目地址: https://gitcode.com/GitHub_Trend…...

终极指南:免费开源fSpy相机匹配工具,3分钟实现2D图像到3D场景的完美转换

终极指南:免费开源fSpy相机匹配工具,3分钟实现2D图像到3D场景的完美转换 【免费下载链接】fSpy A cross platform app for quick and easy still image camera matching 项目地址: https://gitcode.com/gh_mirrors/fs/fSpy 还在为将2D照片转换为精…...

InfluxDB新手必看:从安装到基本操作的完整指南(Windows版)

InfluxDB Windows实战指南:从零搭建时序数据库系统 时序数据正成为物联网、DevOps和业务监控领域的核心资产。想象一下,您需要每秒处理数千台设备的温度读数,或者分析应用程序每分钟的性能指标——传统关系型数据库在这种高频写入场景下往往…...

如何永久备份微信聊天记录?WeChatMsg完整解决方案指南

如何永久备份微信聊天记录?WeChatMsg完整解决方案指南 【免费下载链接】WeChatMsg 提取微信聊天记录,将其导出成HTML、Word、CSV文档永久保存,对聊天记录进行分析生成年度聊天报告 项目地址: https://gitcode.com/GitHub_Trending/we/WeCha…...

资源提取高效解析与跨设备管理:猫抓浏览器扩展的技术实践

资源提取高效解析与跨设备管理:猫抓浏览器扩展的技术实践 【免费下载链接】cat-catch 猫抓 浏览器资源嗅探扩展 / cat-catch Browser Resource Sniffing Extension 项目地址: https://gitcode.com/GitHub_Trending/ca/cat-catch 在数字化内容爆炸的今天&…...

亚洲美女-造相Z-Turbo可部署方案:适配信创环境(麒麟OS+昇腾910B)可行性验证

亚洲美女-造相Z-Turbo可部署方案:适配信创环境(麒麟OS昇腾910B)可行性验证 今天我们来聊聊一个挺有意思的话题:怎么把一个专门生成亚洲美女图片的AI模型,部署到咱们国产的信创环境里。这个模型叫“亚洲美女-造相Z-Tur…...

保姆级教程:用Python复现MIT Cheetah的刚体模型与正运动学(附代码)

从零实现MIT Cheetah四足机器人刚体建模与运动学仿真 四足机器人一直是机器人领域的热门研究方向,而MIT Cheetah作为开源四足机器人中的佼佼者,其设计理念和算法实现值得每一位机器人爱好者深入研究。本文将带你从零开始,用Python完整实现MI…...

intv_ai_mk11保姆级教程:解决页面打开但生成慢、服务启动失败等6类问题

intv_ai_mk11保姆级教程:解决页面打开但生成慢、服务启动失败等6类问题 1. 快速了解intv_ai_mk11 intv_ai_mk11是一个基于Llama架构的中等规模文本生成模型,特别适合处理通用问答、文本改写、解释说明和简短创作等任务。这个镜像已经完成了本地部署&am…...

三步掌握BilibiliDown:打造你的B站视频离线收藏库

三步掌握BilibiliDown:打造你的B站视频离线收藏库 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/bi/Bi…...

D3KeyHelper:暗黑3效率提升工具的全方位应用指南

D3KeyHelper:暗黑3效率提升工具的全方位应用指南 【免费下载链接】D3keyHelper D3KeyHelper是一个有图形界面,可自定义配置的暗黑3鼠标宏工具。 项目地址: https://gitcode.com/gh_mirrors/d3/D3keyHelper D3KeyHelper是一款开源的暗黑3鼠标宏工具…...

Ostrakon-VL扫描终端实战:识别冷柜温度计读数并判断是否符合标准

Ostrakon-VL扫描终端实战:识别冷柜温度计读数并判断是否符合标准 1. 项目背景与价值 在零售和餐饮行业中,冷链管理是确保食品安全的关键环节。传统的人工检查冷柜温度方式存在效率低、易出错等问题。Ostrakon-VL扫描终端通过创新的像素风格界面和强大的…...