当前位置: 首页 > article >正文

高性能SQL解析库-fast-sqlparse

原本是我写的一个C 17跨平台SQL解析库后面用pybind11编译成了pyd和so文件然后二次开发而来他的速度有一定的损失但是我们解析SQL更简单、更快、更直观了。经过一年7个大版本的迭代开发、反复测试和不断完善今年我把它发布到github上希望有人能看到、使用、提出问题和意见。相比与纯python库sqlparse、sqlglot等它的速度通常会快出数十倍。另外它还非常适合解析超大、复杂查询、子查询深度嵌套、公共表达式混用的场景。GitHub仓库https://github.com/Nohaltsail/fast-pysqlparse目录安装快速开始核心类说明功能演示性能对比API参考安装pipinstallfast-pysqlparse快速开始fromfastsqlparseimportParsed,ParsedQuery# 解析SQLsqlSELECT * FROM users WHERE age 18parsedParsed(sql)# 获取解析结果queryparsed.parsedforest[0]print(query.sources)# 数据源print(query.columns)# 列信息print(query.format())# 格式化输出核心类说明1. Parsed - SQL解析器主类功能: 解析任意SQL语句SELECT、INSERT、UPDATE、DELETE、CREATE等参数:sql_statements(str): SQL语句字符串file(str, optional): SQL文件路径name(str, optional): 解析内容名称pure(bool, defaultFalse): 是否忽略注释主要属性和方法:parsedforest: 返回解析后的语句列表statements: 所有SQL语句tokens(): 获取词法单元AST(): 获取抽象语法树JSON格式format(indent): 格式化SQLcontent(): 获取原始SQL内容name: SQL语句名称示例:fromfastsqlparseimportParsed sqlSELECT u.id, u.name FROM users u WHERE u.age 18parsedParsed(sql)# 获取解析树itemsparsed.parsedforest# 格式化formattedparsed.format(indent )# 获取ASTast_jsonparsed.AST()# 获取Tokenstokensparsed.tokens()2. ParsedQuery - SELECT查询解析器功能: 专门解析SELECT查询语句提取查询子句和元数据参数:statement(str): SELECT语句name(str): 查询名称pure(bool, defaultFalse): 是否去除注释主要属性:sources: 数据源列表FROM/JOIN的表columns: 选择的列列表clause_select: SELECT子句内容clauses: 子句列表FROM子句内容WHERE子句内容GROUP BY/HAVING子句ORDER BY子句LIMIT子句parent: Parsed父对象cte: CTE映射字典unions: UNION查询列表subquery: 子查询信息level: 嵌套层级主要方法:format(indent, init_indent): 格式化查询ast(): 生成ASTtokens(): 获取Tokenstokenize(statement): 静态方法快速词法分析示例:fromfastsqlparseimportParsedQuery sql SELECT u.user_id, COUNT(o.order_id) as cnt FROM users u LEFT JOIN orders o ON u.user_id o.user_id WHERE u.status active GROUP BY u.user_id HAVING cnt 5 ORDER BY cnt DESC LIMIT 10 queryParsedQuery(sql,user_orders)# 提取信息print(数据源:,query.sources)print(列:,query.columns)fori,clauseinenumerate(query.clauses):ifclause.partCLAUSE_FROM:print(fFROM子句:{clause.clause})elifclause.partCLAUSE_WHERE:print(fWHERE条件:{clause.clause})elifclause.partCLAUSE_AGGREGATION:print(fGROUP BY:{clause.clause})elifclause.partCLAUSE_SORT:print(fORDER BY:{clause.clause})elifclause.partCLAUSE_LIMIT:print(fLIMIT:{clause.clause})# 快速tokenizertokensParsedQuery.tokenize(sql)fortoken_type,token_value,posintokens[:5]:print(f{token_type}:{token_value})3. ParsedCTE - 公用表表达式解析器功能: 解析WITH子句CTE参数:statement(str): WITH语句pure(bool, defaultFalse): 是否去除注释name(str, optional): CTE名称主要属性:raw: 原始CTE语句cte_stmts: CTE语句列表name: CTE名称主要方法:format(indent, init_indent): 格式化CTEast(): 生成ASTtokenize(statement): 静态方法快速词法分析示例:fromfastsqlparseimportParsedCTE,ParsedQuery sql WITH RECURSIVE cte AS ( SELECT 1 as n UNION ALL SELECT n 1 FROM cte WHERE n 10 ) cteParsedCTE(sql)print(CTE语句:,cte.cte_stmts)print(格式化:\n,cte.format())sql WITH RECURSIVE cte AS ( SELECT 1 as n UNION ALL SELECT n 1 FROM cte WHERE n 10 ) SELECT * FROM cte ctesParsedQuery(sql,test).cteforcte_nameinctes:print(CTE名称:,cte_name)print(CTE语句:,ctes[cte_name].format())4. ParsedInsert - INSERT语句解析器功能: 解析INSERT语句支持VALUES和SELECT两种方式参数:statement(str): INSERT语句pure(bool, defaultFalse): 是否去除注释主要属性:name: 目标表名columns: 插入的列列表values: 插入的值query: 查询对象INSERT…SELECT时query_load: 是否有查询加载main_stmt: 主语句cte_stmt: CTE语句query_stmt: 查询语句主要方法:format(indent, init_indent): 格式化ast(): 生成ASTtokens(): 获取Tokenstokenize(statement): 静态方法快速词法分析示例:fromfastsqlparseimportParsedInsert sql1INSERT INTO users (id, name) VALUE (1, Alice)insert1ParsedInsert(sql1)print(表名:,insert1.name)print(列:,insert1.columns)print(值:,insert1.values)# SELECT方式带CTEsql2 INSERT INTO summary (product_id, total) WITH stats AS ( SELECT product_id, SUM(amount) as total FROM orders GROUP BY product_id ) SELECT product_id, total FROM stats sts insert2ParsedInsert(sql2)print(表名:,insert2.name)print(有查询:,insert2.query_load)ifinsert2.query:forsourceininsert2.query.sources:print(子句:,source.raw)print(表:,source.table)print(别名:,source.alias)5. 其他解析器类ParsedView - VIEW解析器fromfastsqlparseimportParsedView sqlCREATE VIEW active_users AS SELECT * FROM users WHERE statusactiveviewParsedView(sql)ParsedUpdate - UPDATE解析器fromfastsqlparseimportParsedUpdate sqlUPDATE users SET statusinactive WHERE last_login 2023-01-01updateParsedUpdate(sql)ParsedDelete - DELETE解析器fromfastsqlparseimportParsedDelete sqlDELETE FROM logs WHERE created_at 2023-01-01deleteParsedDelete(sql)ParsedCreate - CREATE TABLE解析器fromfastsqlparseimportParsedCreate sql CREATE TABLE users ( id INT PRIMARY KEY, name VARCHAR(100), email VARCHAR(200) ) createParsedCreate(sql)功能演示场景1: 普通查询含子查询fromfastsqlparseimportParsed sql SELECT u.user_id, u.username, (SELECT COUNT(*) FROM orders o WHERE o.user_id u.user_id) as order_count FROM users u WHERE u.age 18 ORDER BY u.username LIMIT 10 parsedParsed(sql)queryparsed.parsedforest[0]# 提取关键信息print(数据源:,query.sources)print(列:,query.columns)print(SELECT子句:,query.clause_select)forclauseinquery.clauses:ifclause.partCLAUSE_FROM:print(fFROM子句:{clause.clause})elifclause.partCLAUSE_WHERE:print(fWHERE子句:{clause.clause})elifclause.partCLAUSE_SORT:print(fORDER BY子句:{clause.clause})elifclause.partCLAUSE_LIMIT:print(fLIMIT子句:{clause.clause})输出:数据源: [DqlSourceExpr object] 列: [DqlColumnExpr object, ...] SELECT子句: [u.user_id, u.username, (SELECT COUNT(*) ...) as order_count] FROM子句: FROM users u WHERE子句: WHERE u.age 18 ORDER BY子句: ORDER BY u.username LIMIT子句: LIMIT 10场景2: 临时结果集聚合查询fromfastsqlparseimportParsedimportjson sql WITH sales_summary AS ( SELECT product_id, SUM(amount) as total_sales, AVG(amount) as avg_sales FROM sales WHERE sale_date 2024-01-01 GROUP BY product_id ) SELECT * FROM sales_summary WHERE total_sales 1000 parsedParsed(sql)# 获取Tokenstokensparsed.tokens()print(fToken数量:{len(tokens)})# 获取ASTast_strparsed.AST()ast_objjson.loads(ast_str)print(json.dumps(ast_obj,indent2,ensure_asciiFalse))场景3: UNION查询 TokenizerfromfastsqlparseimportParsedQuery sql WITH region_sales AS ( SELECT region, SUM(amount) as total FROM sales GROUP BY region ) SELECT * FROM region_sales UNION ALL SELECT TOTAL as region, SUM(total) FROM region_sales # 使用Tokenizer进行快速词法分析tokensParsedQuery.tokenize(sql)fortoken_type,token_value,positionintokens:print(fType:{token_type:15}| Value:{token_value[:30]:30}| Pos:{position})场景4: INSERT INTO … CTE SELECTfromfastsqlparseimportParsedInsert sql INSERT INTO summary_table (product_id, total_amount, avg_amount) WITH product_stats AS ( SELECT product_id, SUM(amount) as total_amount, AVG(amount) as avg_amount FROM orders GROUP BY product_id ) SELECT product_id, total_amount, avg_amount FROM product_stats insertParsedInsert(sql)print(目标表:,insert.name)print(插入列:,insert.columns)print(有查询:,insert.query_load)ifinsert.query:print(查询类型:,type(insert.query))print(查询来源:,insert.query.sources)print(查询列:,insert.query.columns)场景5: 处理注释和格式化fromfastsqlparseimportParsed,strip_note sql -- 这是主注释 SELECT u.user_id, -- 用户ID u.username -- 用户名 FROM users u /* 用户表 */ WHERE u.status active -- 只查活跃用户 # 保留注释并格式化parsed_with_commentsParsed(sql,pureFalse)print(保留注释:)print(parsed_with_comments.format())# 去除注释并格式化parsed_pureParsed(sql,pureTrue)print(\n去除注释:)print(parsed_pure.format())# 仅去除注释不格式化strippedstrip_note(sql)print(\n仅去注释:)print(stripped)性能对比测试环境SQL长度: 1359字符测试次数: 100次性能结果解析器总耗时(100次)平均每次相对速度fast-pysqlparse0.0170秒0.17ms1.0x(基准)sqlparse1.3040秒13.04ms76.75x更快sqlglot0.4283秒4.28ms25.21x更快大规模测试测试1: 5000次解析SQL长度: 639字符总耗时: 0.6084秒PPS (Parses Per Second): 8218.88平均每次: 0.1217ms测试2: 1000万字符SQLSQL长度: 10,500,998字符总耗时: 1.4085秒CPS (Characters Per Second): 7,455,540解析成功API参考工具函数strip_note(sql: str) - str去除SQL中的注释fromfastsqlparseimportstrip_note sqlSELECT * FROM users -- commentcleanstrip_note(sql)# 结果: SELECT * FROM usersformat(sql: str, indent: str ) - str格式化SQL语句fromfastsqlparseimportformatsqlSELECT * FROM users WHERE id1formattedformat(sql,query,indent )tokenize(sql: str) - List[Tuple[str, str, int]]词法分析tokenize_query(sql: str) - List[Tuple[str, str, int]]快速词法分析SELECT语句fromfastsqlparseimporttokenize_query tokenstokenize_query(SELECT * FROM users)tokenize_cte(sql: str) - List[Tuple[str, str, int]]快速词法分析WITH语句tokenize_insert(sql: str) - List[Tuple[str, str, int]]快速词法分析INSERT语句tokenize_update(sql: str) - List[Tuple[str, str, int]]快速词法分析UPDATE语句tokenize_delete(sql: str) - List[Tuple[str, str, int]]快速词法分析DELETE语句tokenize_view(sql: str) - List[Tuple[str, str, int]]快速词法分析VIEW语句Token结构每个Token包含以下属性:type: Token类型KEYWORD, IDENTIFIER, LITERAL, WHITESPACE等value: Token的值position: 在SQL中的位置tokensparsed.tokens()fortokenintokens:print(fType:{token.type}, Value:{token.value}, Pos:{token.at})AST结构AST以JSON格式返回包含:查询子句SELECT, FROM, WHERE等CTE定义列信息数据源信息联合查询信息importjson ast_json_listparsed.AST()ast_json_dicparsed_query.ast()ast_objjson.loads(ast_json_dic)最佳实践1. 选择合适的解析器通用SQL: 使用Parsed仅SELECT: 使用ParsedQuery更快仅INSERT: 使用ParsedInsert仅CTE: 使用ParsedCTE2. 性能优化如果只需要词法信息使用tokenize()静态方法设置pureTrue可以跳过注释处理提升速度避免重复解析相同SQL缓存解析结果3. 错误处理fromfastsqlparseimportParsedtry:parsedParsed(invalid_sql)exceptExceptionase:print(f解析失败:{e})常见问题Q1: 如何提取表名queryparsed.parsedforest[0]forsourceinquery.sources:print(source.table)# 或查看source的属性Q2: 如何处理多语句SQLparsedParsed(SELECT * FROM t1; SELECT * FROM t2;)forstmtinparsed.parsedforest:print(stmt)Q3: 如何获取子查询信息queryparsed.parsedforest[0]ifquery.subquery:forsubqinquery.subquery:print(subq)

相关文章:

高性能SQL解析库-fast-sqlparse

原本是我写的一个C 17跨平台SQL解析库,后面用pybind11编译成了pyd和so文件,然后二次开发而来,他的速度有一定的损失,但是我们解析SQL更简单、更快、更直观了。经过一年7个大版本的迭代开发、反复测试和不断完善,今年我…...

张量基础与NumPy操作全解析

1. 张量基础概念解析在机器学习领域,张量(Tensor)是最基础的数据结构之一。Google的TensorFlow框架名称就来源于此,足见其重要性。简单来说,张量是向量和矩阵的高维推广,可以理解为多维数组。1.1 张量的数学…...

深度学习图像数据集目录设计与Keras数据生成器实践

1. 深度学习图像数据集目录结构设计在计算机视觉项目中,合理组织图像数据是模型训练的第一步。我见过太多项目因为初期目录结构混乱,导致后续数据加载和模型训练遇到各种问题。经过多年实践,我发现遵循以下目录结构能避免90%的数据管理问题。…...

GHelper:华硕笔记本性能调控神器,轻量级控制工具轻松搞定

GHelper:华硕笔记本性能调控神器,轻量级控制工具轻松搞定 【免费下载链接】g-helper Lightweight Armoury Crate alternative for Asus laptops with nearly the same functionality. Works with ROG Zephyrus, Flow, TUF, Strix, Scar, ProArt, Vivoboo…...

如何3秒获取百度网盘提取码:智能工具让资源获取不再烦恼

如何3秒获取百度网盘提取码:智能工具让资源获取不再烦恼 【免费下载链接】baidupankey 项目地址: https://gitcode.com/gh_mirrors/ba/baidupankey 还在为百度网盘分享链接的提取码而困扰吗?每次找到心仪的学习资料或工作文档,却卡在…...

谁拿下边缘 AI,谁就更可能赢下整个 AI 时代

过去两年,AI 行业的热闹几乎都集中在云端。大家都在比模型参数、训练数据、算力规模和推理能力,好像只要把数据中心堆得够大,AI 的未来就会水到渠成。但一个时代真正的转折点,往往不出现在最喧嚣的地方。高通 CEO 克里斯蒂亚诺阿蒙…...

基于Kotlin/JVM的轻量级负载均衡器nekot:动态服务发现与容器化部署实践

1. 项目概述:一个轻量级、高可用的负载均衡解决方案最近在折腾一个内部服务集群,后端节点一多,流量分发就成了头疼事。用Nginx吧,配置是灵活,但每次增减节点都得手动改配置、重载,在动态伸缩的容器化环境里…...

程序合成技术与LLM结合的实践与优化

1. 程序合成技术概述程序合成(Program Synthesis)作为形式化方法领域的重要分支,其核心目标是从高级规范自动生成满足特定要求的程序代码。这项技术起源于20世纪50年代Church提出的电路综合问题,经过数十年的发展已经形成了多种技…...

Sorcerer:AI应用开发的模块化工具箱,快速构建生产级智能系统

1. 项目概述:Sorcerer,一个面向AI应用开发的“魔法”工具箱最近在GitHub上闲逛,发现了一个挺有意思的项目,叫aetherci-hq/sorcerer。光看名字“Sorcerer”(巫师/术士),就透着一股神秘和强大的气…...

LLM训练中的无损压缩技术:QLC编码原理与实践

1. 无损压缩在LLM训练中的关键作用在大规模语言模型(LLM)训练和服务过程中,网络带宽往往是性能瓶颈的主要来源。当模型参数规模达到数十亿甚至数千亿级别时,需要在多个加速器之间频繁交换权重、激活值和梯度数据。典型的分布式训练…...

Go语言ECS框架GECS:游戏开发中的数据驱动架构实践

1. 项目概述:一个面向游戏开发的ECS框架如果你在游戏开发圈子里待过一段时间,尤其是关注性能优化和架构设计,那么“ECS”这个词对你来说一定不陌生。它代表着“Entity-Component-System”,一种将数据(组件)…...

Qwen3-4B-Thinking入门必看:Gemini 2.5 Flash蒸馏模型本地化部署详解

Qwen3-4B-Thinking入门必看:Gemini 2.5 Flash蒸馏模型本地化部署详解 1. 模型概述 Qwen3-4B-Thinking-2507-Gemini-2.5-Flash-Distill是基于通义千问Qwen3-4B官方模型进行优化的版本。这个模型经过特殊训练,能够输出带有推理过程的思考链,特…...

TMS320C645x DSP EMAC模块性能调优与实战解析

1. TMS320C645x DSP EMAC模块深度解析与性能调优实战在嵌入式网络通信领域,以太网媒体访问控制器(EMAC)是实现高速数据交换的核心引擎。德州仪器(TI)的TMS320C645x系列DSP集成的EMAC模块,凭借其独特的描述符…...

在多轮对话任务中感受Taotoken路由策略的稳定性体验

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 在多轮对话任务中感受Taotoken路由策略的稳定性体验 在开发依赖大语言模型的对话应用时,开发者不仅关注单次请求的响应…...

一眨眼这只小狐狸发布 150 版了

一眨眼,这只小狐狸发布了 150 版。 还挺喜欢官方网站上使用的数字字体。 https://www.isharkfly.com/t/topic/9815...

Qwen3-4B-Thinking开源大模型部署教程:免Docker纯Python环境搭建

Qwen3-4B-Thinking开源大模型部署教程:免Docker纯Python环境搭建 1. 引言 今天我们要介绍的是Qwen3-4B-Thinking开源大模型的部署方法。这个模型基于通义千问Qwen3-4B官方模型,经过Gemini 2.5 Flash大规模蒸馏数据训练,具有256K原生tokens上…...

用Python+AKSHARE+MySQL搭建你的第一个量化选股数据库(附沪深300历史数据抓取脚本)

从零构建Python量化数据库:AKShareMySQL实战指南 在量化投资领域,数据是策略开发的基石。一个设计良好的本地数据库不仅能提高研究效率,还能避免频繁的网络请求限制。本文将带你用Python生态中的AKShare库和MySQL数据库,搭建一个包…...

测试团队能力定级模型实战评测

① 主流组织架构模型适配性分析 在着手构建测试团队的能力定级模型之前,我们首先得看清脚下的“地基”,也就是团队所处的组织架构。不同的组织形态,对人才的需求密度和能力分布有着截然不同的要求。这就好比盖房子,地基是圆形的,你很难强行盖出一座方正的摩天大楼。 目前…...

基于MPA的微前端架构:轻量级、低侵入的前端应用集成方案

1. 项目概述:一个轻量级、可扩展的微前端架构方案最近在梳理团队前端架构时,又翻出了mattmezza/mpa这个项目。它不是那种动辄几千星、社区活跃度爆表的明星项目,但在特定场景下,它提供了一种极其务实、甚至可以说是“返璞归真”的…...

【限时24h】奇点智能大会完整PPT+逐页批注版:标注19处技术话术陷阱、7个可复用架构模板、4个已验证避坑checklist

更多请点击: https://intelliparadigm.com 第一章:奇点智能大会PPT回放:SITS2026精彩回顾 SITS2026(Singularity Intelligence Technology Summit)于2026年4月在上海张江科学会堂圆满落幕,大会聚焦大模型推…...

AI代码质量守护:eslint-plugin-ai-guard 插件实战指南

1. 项目概述:为什么我们需要一个专为AI代码“体检”的ESLint插件? 如果你和我一样,在日常开发中已经离不开GitHub Copilot、Cursor或者Claude Code这类AI编程助手,那你肯定也经历过那种“哭笑不得”的时刻:AI生成的代…...

别让LaTeX编译日志搞晕你:SpringerLink投稿系统生成PDF的底层逻辑解析

别让LaTeX编译日志搞晕你:SpringerLink投稿系统生成PDF的底层逻辑解析 第一次在SpringerLink投稿系统提交LaTeX源文件时,看到生成的PDF里全是密密麻麻的编译日志而非论文内容,相信很多研究者都会瞬间崩溃。这背后其实隐藏着学术出版系统处理L…...

刘翔鸥123

...

Kafka架构 主题中的分区和段

分区是隶属于主题之下的。第一个图满足了最基本的消息的发布订阅,但是kafka是一个高吞吐量的消息队列,假如producer生产的速度远远大于consumer的消费能力,那么会造成topic下的数据堆积。消息堆积满之后就需要扩展了,否则效率低下…...

快速下载ollama,为Deepseek本地部署提速!

在将deepseek部署到本地时需要安装软件ollama 常常面临的就是网速很慢,龟速 下面提供一个方法可以快速下载 在ollama软件选择好要下载的软件,比如windows系统,在Download for windows按钮上右键选择新建标签页打开(火狐浏览器&am…...

Hyprland下Roblox游戏锁屏方案:进程监控与Swaylock定制

1. 项目概述:一个为Roblox玩家打造的Hyprland锁屏工具 如果你是一名深度使用Linux的Roblox玩家,同时又对Hyprland这类现代Wayland合成器情有独钟,那么你很可能遇到过这样一个痛点:如何在游戏过程中,快速、安全且美观地…...

基于LLM的量化交易实验框架:从ChatGPT实盘到投资者行为基准

1. 项目概述:一个用大语言模型做实盘交易的实验框架看到那些铺天盖地的“AI选股神器”广告,你是不是也和我一样,第一反应是翻个白眼?这些营销话术听起来天花乱坠,但背后到底有多少真材实料,谁也不知道。与其…...

Windows下用Anaconda安装onnx-simplifier踩坑实录(附onnx==1.11.0解决方案)

Windows下Anaconda环境安装onnx-simplifier的深度排坑指南 如果你正在Windows上使用Anaconda管理Python环境,并尝试安装onnx-simplifier来优化你的AI模型,那么这篇文章就是为你准备的。我们将深入探讨安装过程中可能遇到的编译错误,特别是那些…...

告别.pyc反编译:用Cython把Python项目编译成.pyd/.so的保姆级教程(Windows/Linux双平台)

告别.pyc反编译:用Cython实现Python项目跨平台编译与代码保护的终极指南 当你的Python项目从实验室走向商业环境时,源码保护就成为了不可回避的挑战。想象一下这样的场景:你花费数月开发的算法核心,在交付给客户后第二天就出现在…...

深入V4L2内核:当DQBUF卡在wait_event时,我们该如何调试与自救?

深入V4L2内核:当DQBUF卡在wait_event时的调试与解决方案 在Linux视频开发领域,V4L2框架是连接用户空间和摄像头驱动的核心桥梁。然而,当用户态应用调用VIDIOC_DQBUF时,有时会遇到进程永久阻塞的情况,特别是在设备异常状…...