当前位置: 首页 > article >正文

AI应用的可观测性工程2026:让LLM系统从黑盒变白盒

为什么AI应用难以调试传统软件系统出了问题你有一套成熟的调试手段查日志、看堆栈、断点调试、Metrics报警。这些工具运作良好因为传统系统是确定性的——相同输入必然相同输出错误有明确的代码路径。LLM应用打破了这一切。同一个prompt不同时间的输出可能不同temperature 0。用户说结果不对但你不知道是prompt的问题、模型的问题、还是RAG检索的问题。生产环境突然准确率下降但没有任何异常日志——因为LLM总是成功地返回了一些文字只是内容不对。**AI可观测性LLM Observability**正是为了解决这些问题而出现的工程领域。它不是普通的日志监控而是专门为LLM系统设计的追踪、评估和分析体系。## 可观测性的三层架构AI应用的可观测性分为三个层次从底层到顶层第三层业务可观测性 - 用户满意度、任务完成率、业务指标 ↑第二层LLM可观测性 - Trace追踪、Prompt日志、Token统计、延迟分布 ↑第一层基础设施可观测性 - CPU/GPU、内存、API调用错误率、网络延迟大多数团队只做第一层这是远远不够的。本文重点讨论第二层和第三层。## LLM追踪Tracing工程实践### 为什么Trace比Log更重要传统日志记录单点事件。而LLM应用的一次用户请求可能涉及用户输入 → 意图理解 → RAG检索 → Prompt构建 → LLM调用 → 结果后处理 → 输出。这个链路中任何一步出问题都会影响最终质量但日志无法告诉你这次响应的第3步RAG检索只召回了2条相关文档导致回答缺乏依据。Trace分布式追踪提供了完整的请求链路视图每一步都有输入、输出、耗时、用量、元数据。### 用LangSmith实现自动Tracepythonimport osfrom langsmith import Client, traceablefrom langchain_openai import ChatOpenAIfrom langchain_core.prompts import ChatPromptTemplateimport anthropic# 配置LangSmithos.environ[LANGCHAIN_TRACING_V2] trueos.environ[LANGCHAIN_API_KEY] your_langsmith_api_keyos.environ[LANGCHAIN_PROJECT] my_ai_app_prod# 自动追踪LangChain调用llm ChatOpenAI(modelgpt-4o, temperature0.3)traceable(namerag_pipeline, run_typechain)def rag_pipeline(user_question: str) - dict: RAG完整链路自动被LangSmith追踪 # 步骤1检索 docs retrieve_relevant_docs(user_question) # 步骤2构建prompt context \n\n.join([d.page_content for d in docs]) prompt f基于以下上下文回答问题\n\n{context}\n\n问题{user_question} # 步骤3LLM调用自动记录prompt和response response llm.invoke(prompt) return { answer: response.content, source_docs: len(docs), context_length: len(context) }traceable(nameretrieve_docs, run_typeretriever)def retrieve_relevant_docs(query: str) - list: 文档检索单独追踪 # 实际检索逻辑 return vector_store.similarity_search(query, k5)### 自建轻量级Trace系统pythonimport uuidimport timeimport jsonfrom dataclasses import dataclass, field, asdictfrom typing import Optional, List, Any, Dictfrom contextlib import contextmanagerfrom datetime import datetimedataclassclass Span: 单个追踪跨度 span_id: str field(default_factorylambda: str(uuid.uuid4())[:8]) name: str trace_id: str parent_span_id: Optional[str] None start_time: float field(default_factorytime.time) end_time: Optional[float] None # LLM特定字段 inputs: Dict[str, Any] field(default_factorydict) outputs: Dict[str, Any] field(default_factorydict) metadata: Dict[str, Any] field(default_factorydict) # Token和成本追踪 input_tokens: int 0 output_tokens: int 0 cost_usd: float 0.0 error: Optional[str] None property def duration_ms(self) - float: if self.end_time: return (self.end_time - self.start_time) * 1000 return 0.0 def finish(self, outputs: dict None, error: str None): self.end_time time.time() if outputs: self.outputs outputs if error: self.error errorclass LLMTracer: 轻量级LLM追踪器 def __init__(self, backendconsole): self.backend backend self._active_spans: Dict[str, Span] {} self.spans: List[Span] [] contextmanager def trace(self, name: str, trace_id: str None, parent_id: str None, **metadata): 追踪上下文管理器 span Span( namename, trace_idtrace_id or str(uuid.uuid4()), parent_span_idparent_id, metadatametadata ) self._active_spans[span.span_id] span try: yield span span.finish() except Exception as e: span.finish(errorstr(e)) raise finally: self._active_spans.pop(span.span_id, None) self.spans.append(span) self._emit(span) def _emit(self, span: Span): 发送追踪数据 if self.backend console: status ERROR if span.error else OK print(f[TRACE] {span.name} | {status} | {span.duration_ms:.0f}ms | ftokens{span.input_tokensspan.output_tokens} | fcost${span.cost_usd:.4f}) elif self.backend file: with open(traces.jsonl, a, encodingutf-8) as f: f.write(json.dumps(asdict(span), ensure_asciiFalse) \n)# 全局追踪器实例tracer LLMTracer(backendfile)class TracedOpenAIClient: 带自动追踪的OpenAI客户端包装 COST_PER_TOKEN { gpt-4o: {input: 2.5e-6, output: 10e-6}, gpt-4o-mini: {input: 0.15e-6, output: 0.6e-6}, o1: {input: 15e-6, output: 60e-6}, } def __init__(self, api_key: str None): import openai self.client openai.OpenAI(api_keyapi_key) def chat_completion( self, messages: list, model: str gpt-4o, trace_id: str None, span_name: str llm_call, **kwargs ) - dict: 带追踪的chat completion调用 with tracer.trace(span_name, trace_idtrace_id, modelmodel) as span: span.inputs {messages: messages, model: model, **kwargs} response self.client.chat.completions.create( modelmodel, messagesmessages, **kwargs ) # 记录token使用 span.input_tokens response.usage.prompt_tokens span.output_tokens response.usage.completion_tokens # 计算成本 costs self.COST_PER_TOKEN.get(model, {input: 0, output: 0}) span.cost_usd ( span.input_tokens * costs[input] span.output_tokens * costs[output] ) output response.choices[0].message.content span.outputs {content: output[:500]} # 只记录前500字符 return { content: output, usage: { input_tokens: span.input_tokens, output_tokens: span.output_tokens, cost_usd: span.cost_usd } }## LLM评估Evaluation框架追踪只是记录发生了什么评估才是判断好不好。### 自动化评估指标pythonfrom enum import Enumimport reclass EvalMetric(Enum): FAITHFULNESS faithfulness # 回答是否忠实于上下文RAG防幻觉 RELEVANCE relevance # 回答是否与问题相关 COMPLETENESS completeness # 回答是否完整 SAFETY safety # 回答是否安全无有害内容 COHERENCE coherence # 回答是否语义连贯class LLMEvaluator: 使用LLM-as-Judge方法进行自动化评估 让一个强模型如GPT-4o评估另一个模型的输出质量 def __init__(self, judge_model: str gpt-4o): import openai self.client openai.OpenAI() self.judge_model judge_model def evaluate_faithfulness(self, context: str, answer: str) - dict: 评估RAG回答是否忠实于检索到的上下文 核心RAG质量指标防止幻觉 prompt f评估任务判断回答是否完全基于上下文没有引入上下文中不存在的信息。上下文{context[:2000]}回答{answer}评分标准- 5分回答完全基于上下文没有任何幻觉- 4分回答主要基于上下文有极少量推断合理- 3分回答部分基于上下文有明显的推断或补充- 2分回答混合了上下文内容和外部知识- 1分回答大量包含上下文中不存在的信息严重幻觉只输出JSON{{score: 1-5, reason: 一句话解释, has_hallucination: true/false}} response self.client.chat.completions.create( modelself.judge_model, response_format{type: json_object}, messages[{role: user, content: prompt}] ) import json result json.loads(response.choices[0].message.content) return { metric: faithfulness, score: result[score] / 5.0, # 归一化到0-1 raw_score: result[score], reason: result.get(reason, ), has_hallucination: result.get(has_hallucination, False) } def evaluate_answer_relevance(self, question: str, answer: str) - dict: 评估回答是否真正回答了问题 prompt f问题{question}回答{answer}评估回答是否直接、完整地回答了问题。只输出JSON{{score: 1-5, addressed_question: true/false, reason: ...}} response self.client.chat.completions.create( modelself.judge_model, response_format{type: json_object}, messages[{role: user, content: prompt}] ) import json result json.loads(response.choices[0].message.content) return { metric: relevance, score: result[score] / 5.0, addressed_question: result.get(addressed_question, True) } def batch_evaluate(self, samples: List[dict]) - dict: 批量评估用于离线质量分析 samples格式[{question: ..., context: ..., answer: ..., trace_id: ...}] results [] for sample in samples: eval_result { trace_id: sample.get(trace_id), question: sample[question][:100] } if sample.get(context): eval_result[faithfulness] self.evaluate_faithfulness( sample[context], sample[answer] ) eval_result[relevance] self.evaluate_answer_relevance( sample[question], sample[answer] ) results.append(eval_result) # 汇总统计 faithfulness_scores [r[faithfulness][score] for r in results if faithfulness in r] relevance_scores [r[relevance][score] for r in results] return { total_samples: len(results), avg_faithfulness: sum(faithfulness_scores) / len(faithfulness_scores) if faithfulness_scores else None, avg_relevance: sum(relevance_scores) / len(relevance_scores), hallucination_rate: sum(1 for r in results if r.get(faithfulness, {}).get(has_hallucination)) / len(results), details: results }## Prometheus Grafana监控集成pythonfrom prometheus_client import Counter, Histogram, Gauge, start_http_serverimport time# 定义LLM特定的Prometheus指标LLM_REQUESTS_TOTAL Counter( llm_requests_total, LLM API调用总次数, [model, endpoint, status])LLM_LATENCY_SECONDS Histogram( llm_latency_seconds, LLM API响应时间分布, [model], buckets[0.5, 1.0, 2.0, 5.0, 10.0, 30.0, 60.0])LLM_TOKENS_TOTAL Counter( llm_tokens_total, Token使用量, [model, token_type] # token_type: input/output)LLM_COST_USD_TOTAL Counter( llm_cost_usd_total, 累计API成本美元, [model])EVAL_SCORE Gauge( llm_eval_score, 最近N次评估的平均分, [metric_name] # faithfulness/relevance/etc.)class PrometheusLLMMonitor: LLM监控的Prometheus集成 def record_call(self, model: str, status: str, latency: float, input_tokens: int, output_tokens: int, cost: float): LLM_REQUESTS_TOTAL.labels(modelmodel, endpointchat, statusstatus).inc() LLM_LATENCY_SECONDS.labels(modelmodel).observe(latency) LLM_TOKENS_TOTAL.labels(modelmodel, token_typeinput).inc(input_tokens) LLM_TOKENS_TOTAL.labels(modelmodel, token_typeoutput).inc(output_tokens) LLM_COST_USD_TOTAL.labels(modelmodel).inc(cost) def update_eval_scores(self, eval_results: dict): for metric, score in eval_results.items(): if isinstance(score, (int, float)): EVAL_SCORE.labels(metric_namemetric).set(score)# 在应用启动时暴露metrics端点# start_http_server(8000) # Prometheus会来抓取 http://localhost:8000/metrics## 可观测性平台选型| 工具 | 适用场景 | 优势 | 局限 ||------|----------|------|------|| LangSmith | LangChain项目 | 开箱即用、深度集成 | 仅LangChain生态 || Langfuse | 开源、自托管 | 灵活、可私有化 | 需要自己运维 || Weights Biases | ML实验追踪 | 实验管理强 | LLM功能较新 || Helicone | 轻量代理方式 | 零侵入集成 | 功能相对简单 || 自建本文方案 | 定制化需求 | 完全控制 | 开发成本高 |## 总结LLM可观测性的核心实践1.追踪每一次LLM调用记录完整的输入输出、token用量、延迟和成本2.链路级Trace不只是点日志一次用户请求的完整链路追踪找到瓶颈步骤3.自动化质量评估LLM-as-Judge评估幻觉率、相关性替代纯人工质检4.成本和延迟双监控生产环境的质量问题往往先反映在这两个指标上5.Prompt版本管理追踪不同prompt版本的效果差异支持A/B测试从黑盒到白盒不是一步完成的。先把追踪做起来再做评估最后建立完整的监控体系。每一步都比什么都没有好得多。

相关文章:

AI应用的可观测性工程2026:让LLM系统从黑盒变白盒

为什么AI应用难以调试? 传统软件系统出了问题,你有一套成熟的调试手段:查日志、看堆栈、断点调试、Metrics报警。这些工具运作良好,因为传统系统是确定性的——相同输入,必然相同输出,错误有明确的代码路径…...

告别手动上传!用Python+SAP OData实现OA审批后自动同步请求号(保姆级避坑指南)

从OA审批到SAP请求号自动同步:Python与OData实战全解析 当审批流程在OA系统完成,而SAP系统中的请求号仍需手动录入时,这种割裂不仅消耗时间,更可能因人为疏忽导致数据不一致。我曾为某跨国企业实施自动化方案时,发现财…...

别再纠结了!Mapbox、Leaflet、OpenLayers 三大地图库,我根据项目需求帮你选好了

三大地图库深度对比:从项目需求出发的技术选型指南 每次启动新项目时,面对Mapbox、Leaflet和OpenLayers这三个主流地图库的选择,不少开发者都会陷入纠结。作为经历过数十个地图相关项目的老兵,我深知选错技术栈可能带来的后期维护…...

集合初始化革命来了,C# 13新特性全拆解,为什么你的团队必须在.NET 8.0 LTS发布前掌握它?

更多请点击: https://intelliparadigm.com 第一章:集合表达式:C# 13的语法范式跃迁 C# 13 引入的集合表达式(Collection Expressions)标志着语言在数据构造语义上的根本性演进——它将数组、列表、栈、队列等集合的初…...

抖音下载器终极指南:如何轻松批量下载无水印视频和音乐

抖音下载器终极指南:如何轻松批量下载无水印视频和音乐 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fallback supp…...

从‘策略梯度’到‘深度确定性策略梯度’:一文读懂连续动作空间的控制难题与DDPG破局

从策略梯度到深度确定性策略梯度:连续动作空间的控制难题与DDPG破局 在机器人控制和自动驾驶等实际应用中,我们常常需要处理连续动作空间的控制问题。想象一下,当你需要让机械臂以精确的角度抓取物体,或者让汽车方向盘平滑转向时&…...

八大网盘直链解析:本地化安全下载的终极解决方案

八大网盘直链解析:本地化安全下载的终极解决方案 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 ,支持 百度网盘 / 阿里云盘 / 中国移动云盘 / 天翼云盘 …...

命名空间隔离失效全链路排查,从composer autoload到OPcache预编译的8层防御体系构建

更多请点击: https://intelliparadigm.com 第一章:命名空间隔离失效的本质与PHP 8.9新语义边界定义 PHP 8.9 引入了**严格命名空间语义边界(Strict Namespace Boundary, SNB)**机制,从根本上重构了类、函数与常量在嵌…...

OpenAI 从模型研发到算力霸权的史诗跃迁

当 ChatGPT 的浪潮席卷全球,OpenAI 早已跳出 “模型研发” 的单一赛道,正以万亿级资本投入、全链条算力布局、全球基建网络,构筑一座横跨芯片、数据中心、电力与云服务的 “算力帝国”。从依赖微软云的初创实验室,到手握 30GW 算力…...

Rust Trait 泛型结合使用技巧

Rust语言以其安全性和高性能著称,而Trait与泛型的结合使用更是其强大特性的核心之一。Trait定义了类型的行为,泛型则允许代码复用,二者的巧妙结合能大幅提升代码的灵活性和可维护性。本文将深入探讨Rust中Trait与泛型结合使用的技巧&#xff…...

定价玄学:为什么“更贵”有时在亚马逊卖得更好?

商业世界中有许多反直觉的现象,它们初看令人困惑,但一旦洞悉了人类决策的心理“开关”,一切便豁然开朗。不久前,我看到一项研究:志愿者被要求喝一种据说能提升智力的能量饮料,之后进行智力测试。一组人按全…...

告别触摸漂移!使用tslib校准工具ts_calibrate提升嵌入式触屏体验的完整流程

嵌入式触屏精准校准实战:从ts_calibrate到工业级触控优化 在工业控制、医疗设备和自助终端等嵌入式场景中,触摸屏的精准度直接影响用户体验。当用户点击屏幕某个位置时,系统识别的坐标却偏移了几毫米甚至厘米,这种"指东打西&…...

从“疑似”到“确诊”:深入ECU内部,拆解DTC状态位(Bit)的跳变逻辑与实战调试

从“疑似”到“确诊”:深入ECU内部,拆解DTC状态位(Bit)的跳变逻辑与实战调试 在汽车电子控制单元(ECU)的开发与测试中,诊断故障代码(DTC)的状态管理是确保车辆可靠性和安…...

InstructPix2Pix:10分钟掌握基于指令的图像编辑技术

InstructPix2Pix:10分钟掌握基于指令的图像编辑技术 【免费下载链接】instruct-pix2pix 项目地址: https://gitcode.com/gh_mirrors/in/instruct-pix2pix 在当今AI图像生成领域,开发者们面临着一个共同挑战:如何高效地将自然语言指令…...

别再死记硬背了!一张图帮你理清Halcon 3D变换矩阵(HomMat3D)与位姿(Pose)的底层逻辑与避坑指南

3D视觉开发者的数学救星:Halcon变换矩阵与位姿的终极可视化指南 在工业视觉和机器人引导领域,Halcon的3D功能正成为自动化产线的"眼睛"和"大脑"。但当我第一次面对hom_mat3d_rotate与pose_to_hom_mat3d等算子时,那种被数…...

5分钟快速上手:OpCore Simplify黑苹果配置终极指南

5分钟快速上手:OpCore Simplify黑苹果配置终极指南 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 你是否曾因复杂的OpenCore配置而放弃黑…...

Windows 10/8.1隐藏功能解锁:手把手教你开启ReFS格式化,打造更可靠的数据盘

Windows 10/8.1隐藏功能解锁:手把手教你开启ReFS格式化,打造更可靠的数据盘 你是否曾经因为硬盘突然崩溃而丢失重要的工作文件?或者因为系统错误导致珍贵的家庭照片无法恢复?对于技术爱好者和专业用户来说,数据安全永远…...

NVIDIA Launchables:AI开发环境一键部署解决方案

1. NVIDIA Launchables:一键部署AI开发环境的革命性方案在AI开发领域,环境配置一直是困扰开发者的头号难题。根据我的实际项目经验,一个典型的AI项目在启动阶段,团队平均要花费3-5天时间处理环境依赖问题。NVIDIA推出的Launchable…...

Axure RP中文语言包:3分钟搞定专业界面本地化,告别英文烦恼!

Axure RP中文语言包:3分钟搞定专业界面本地化,告别英文烦恼! 【免费下载链接】axure-cn Chinese language file for Axure RP. Axure RP 简体中文语言包。支持 Axure 11、10、9。不定期更新。 项目地址: https://gitcode.com/gh_mirrors/ax…...

Paperxie AI PPT 生成器:毕业答辩 PPT 的 “懒人救星”,让你告别熬夜改模板

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/AI PPThttps://www.paperxie.cn/ppt/createhttps://www.paperxie.cn/ppt/create 毕业答辩季的深夜,多少人的电脑里还躺着一份半成品 PPT?模板找不到、排版乱成一团、内容提炼不精准、…...

驾校培训办公管理系统 专属驾校的OA系统 驾培管理行业

内容目录一、详细介绍二、效果展示1.部分代码2.效果图展示一、详细介绍 适用对象各种驾校的组织架构,比如:品牌连锁驾校、总校及多级分校及更加复杂驾校体系。能为相关从业人员提供优质的服务,进一步加强驾校信息化建设,方便驾校…...

Paperxie 本科终稿写作全指南:从选题到终稿,把规范写进每一步

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/AI PPThttps://www.paperxie.cn/ai/dissertationhttps://www.paperxie.cn/ai/dissertation 很多本科同学写终稿时,都有过这样的崩溃时刻:对着空白文档不知道怎么开头,选…...

Win11Debloat终极指南:5分钟彻底清理Windows系统,性能飙升40%

Win11Debloat终极指南:5分钟彻底清理Windows系统,性能飙升40% 【免费下载链接】Win11Debloat A simple, lightweight PowerShell script that allows you to remove pre-installed apps, disable telemetry, as well as perform various other changes t…...

5分钟掌握Electron-Vue:用Vue.js轻松构建跨平台桌面应用

5分钟掌握Electron-Vue:用Vue.js轻松构建跨平台桌面应用 【免费下载链接】electron-vue An Electron & Vue.js quick start boilerplate with vue-cli scaffolding, common Vue plugins, electron-packager/electron-builder, unit/e2e testing, vue-devtools, …...

Let‘s Encrypt 免费SSL证书,自动续订

Lets Encrypt 是一个免费的证书授权机构(CA),其通过 ACME 协议接口自动签发数字证书,来让你省去证书过期的烦恼。ACME客户端有很多,Lets Encrypt 官网推荐 Certbot ,下面是具体获取免费证书的流程:一、安装 Certb…...

FIFA 23 Live Editor 完全指南:新手快速上手指南

FIFA 23 Live Editor 完全指南:新手快速上手指南 【免费下载链接】FIFA-23-Live-Editor FIFA 23 Live Editor 项目地址: https://gitcode.com/gh_mirrors/fi/FIFA-23-Live-Editor FIFA 23 Live Editor 是一款革命性的实时游戏修改工具,让你在游戏…...

PHP 8.9类型严格模式上线倒计时:3类遗留项目(Laravel 9、Symfony 6、WordPress插件)紧急适配清单

更多请点击: https://intelliparadigm.com 第一章:PHP 8.9类型严格模式的核心机制与演进逻辑 PHP 8.9(当前为社区提案中的前瞻版本,非官方发布版)引入了**类型严格模式(Strict Typing Mode)**作…...

保姆级教程:在Ubuntu 20.04上搞定ARM交叉编译工具链gcc-arm-8.3-2019.03

ARM交叉编译实战指南:Ubuntu 20.04环境搭建与深度解析 嵌入式开发的世界里,交叉编译是连接x86主机与ARM目标板的桥梁。作为开发者,我们常常需要在本机编写代码,却要为不同架构的硬件生成可执行文件。这种"隔山打牛"的能…...

知识竞赛策划全流程详解

📋 知识竞赛策划全流程详解打造一场专业且精彩的知识盛宴📌 一、策划筹备:奠定成功基石任何成功的知识竞赛都始于周密的策划。首先,必须明确竞赛的核心目标与定位。是面向学生的学科竞赛,还是企业内部的团队建设活动&a…...

Visual Syslog Server:Windows环境企业级日志集中管理终极解决方案

Visual Syslog Server:Windows环境企业级日志集中管理终极解决方案 【免费下载链接】visualsyslog Syslog Server for Windows with a graphical user interface 项目地址: https://gitcode.com/gh_mirrors/vi/visualsyslog 在当今复杂的网络环境中&#xff…...