当前位置: 首页 > article >正文

llm+agent,使用与 OpenAI 兼容的 API 格式

文章目录LLM Agent 是什么信息流LLM 本身是无状态的处理器和Agent 的“记忆“怎么理解网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。如果真的“只有 LLM”会怎样agent 记忆agent短期记忆和长期记忆agent记忆存在哪里举例假设你有一个包含 100 个文件的项目你想让 AI 帮你改一个登录 BugAgent 是如何被写出来的。记忆自动拼接上下文什么时候查询数据库什么时候调用”LLM什么时候不在调用llm?MCPModel Context Protocol模型上下文协议MCP 的核心架构mcp客户端mcp服务器资源MCP 实际上是一种基于 JSON-RPC 的通信JSON-RPC 是什么API 和 JSON-RPC 是什么JSON-RPC 数据包的**“运输方式”**stdin/stdout 或 HTTPSSE (Server-Sent Events) 是一种“单向常连”技术。它允许服务器在建立连接后像源源不断的流水一样主动把数据推送到客户端Agent而不需要客户端反复询问sse与普通http区别流式Streaming是数据传输方式SSE 是实现流式的一种技术判断是否是MCP 客户端 (如支持mcp的Agent)判定一个服务器是否为 MCP 服务器的“三个标准”MCP 服务器的作用MCP 是 Agent 和外部工具之间的桥梁/调度中心。如果工具在 MCP 上直接调用函数。如果工具在外部服务通过 HTTP / gRPC / RPC 调用为什么 MCP 可以统一调用工具agent怎么知道有哪些工具llm怎么知道有哪些工具agent调用工具怎么知道要输入哪些内容哪些参数例子Agent 怎么知道发给哪个 LLM 给agent配置哪个llm就用哪个Agent 发送请求到llm,需要 配置LLM 的哪些参数举例messages 列表 Prompt只是格式化成多条消息。system role 设定模型身份/行为规则。user role 用户输入/任务。assistant role 也是 Promptmessages的一部分模型自身的角色主要用于记录 LLM 自己之前的输出让模型理解上下文、保持连贯性怎么实现工具才能让agent调用tool/list 返回的内容是 Schema 还是工具列表以及谁生成 SchemAPIApplication Programming Interface应用程序接口API 的核心就是提供一套调用规则让程序可以互相“说话”,互相调用不管它们是在同一台电脑上还是分布在不同的电脑、甚至不同城市的服务器上。程序之间沟通的接口和规则本地调用Local API / 同一台机器IPCInter-Process Communication进程间通信(1) 管道Pipe / Named Pipe一条只能本地用的单向通信通道就像把两个程序用一条水管连起来stdio 是程序的默认 I/O 接口管道是操作系统提供的通信通道它可以把一个程序的 stdio 接到另一个程序的 stdio 上从而实现数据传递(2) 共享内存Shared Memory消息队列Message Queue套接字Socket / Unix Socket就是 程序之间开通的一条“电话线”通过它发送和接收数据网络通信 vs 本地通信远程调用Remote APIAPI 是怎么实现的实现 API本质是定义一套“规则和通道”告诉其他程序如何访问你的功能。API 技术栈就是3层模型API设计(接口长什么样)-通信协议-数据格式api 设计接口长什么样。 REST、GraphQL、RPC是 三种 API 思想每种 API 思想对应的实现技术/框架API 的第一层接口定义Interface需要什么参数返回什么数据等第二层通信协议数据怎么在网络上传输第三层数据格式数据怎么表示协议Protocol是什么规定了两台计算机或程序之间如何通信、交换信息。怎么传输三种 API 思想实现的api的调用方式API 交互标准OpenAI 定义了一套如何与大模型对话的接口规范如 /v1/chat/completionsmessages 里的角色有哪些systemuserassistantFunction Call 的本质role: function可选 → 标识这是工具调用结果什么是 SDK Software Development Kit开发工具包什么叫 “兼容 OpenAI API”使用与 OpenAI 兼容的 API 格式什么意思OpenAI API标准Model模型参数“调用 API 不一定要写 URL”URL 只是使用 HTTP REST 思想定义的api的调用方式为什么“写了 URL 就是调用 API”。属于http rest思想设计api后的调用方式为什么 OpenAI SDK 换 URL 就调用别的 APIhttp rest形式调用api时换url就是换api了。还可以使用openai sdk是因为别人的api的参数和返回结果与openai一样OpenAI 在 2023 年之后给 AI 应用开发定义了一套“事实标准de-facto standard”OpenAI 推动的“工具调用Tool Calling / Function Calling接口标准”Function Calling / Tool Calling 标准JSON Schema 作为工具参数标准SDK Software Development Kit软件开发工具包Chat Message 协议OpenAI 还定义了 对话消息结构标准后来 Anthropic 提出了 Model Context Protocol (MCP)。把 OpenAI Function Calling 的思想扩展成跨工具协议OpenAI后来又加了一条标准模型输出必须符合指定 JSON Schema现在 AI 行业的架构是什么样目前 AI 行业形成了 两套标准体系Agent框架典型功能工具调用记忆任务规划等Agent 框架里的 任务规划Planning和任务拆分Task Decomposition核心其实不是复杂算法而是 让 LLM 先当“规划器”再当“执行器”任务拆分实现方式Prompt-based Planning最常见任务拆分实现方式ReAct最经典 Agent 方法。Thought → Action → ObservationAgent 框架里的真实代码结构任务拆分方式Plan-and-Execute更稳定LLM Agent 是什么“LLM Agent”其实是目前 AI 领域很火的组合它把 大语言模型LLM, Large Language Model 和 助手/智能体Agent 的能力结合起来让模型不仅“会说”还“会做”信息流LLM 本身是无状态的处理器和Agent 的“记忆“怎么理解网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。如果真的“只有 LLM”会怎样agent 记忆agent短期记忆和长期记忆# 1. 接收到用户的新问题 user_input 我去年在上海买的那把雨伞是什么颜色的 # 2. 调取【短期记忆】看看刚才咱们聊了啥 short_term_context memory_cache.get_recent_chat(limit5) # 结果发现刚才在聊今天的天气没提到雨伞。 # 3. 触发【长期记忆】检索因为短期记忆里找不到“雨伞” # 开发者逻辑如果短期没结果就去翻“向量数据库”这个大档案柜 long_term_record vector_db.search(query上海 雨伞 颜色, top_k1) # 结果发现2025年的一条记录显示“在上海买了一把【蓝色】折叠伞”。 # 4. 【主动管理】开发者设计的“拼装逻辑” # Agent 把搜到的档案、刚才的话、和你的新问题拼在一起 final_prompt f 你是 AI 助手。 已知背景长期记忆{long_term_record} 最近对话短期记忆{short_term_context} 用户的新问题{user_input} 请根据以上信息回答。 # 5. 最后把这个“大包”发给 LLM天才厨师 response LLM.generate(final_prompt) # 6. 【存入逻辑】开发者决定这句话值不值得记一辈子 if 记住 in user_input or 偏好 in user_input: vector_db.save(user_input) # 存进档案柜agent记忆存在哪里举例假设你有一个包含 100 个文件的项目你想让 AI 帮你改一个登录 BugAgent 是如何被写出来的。记忆自动拼接上下文什么时候查询数据库什么时候调用”LLM什么时候不在调用llm?记忆拼接历史上下文什么时候查询什么时候调用llm什么时候不在调用llmMCPModel Context Protocol模型上下文协议MCP 的核心架构mcp客户端mcp服务器资源MCP 实际上是一种基于 JSON-RPC 的通信JSON-RPC 是什么API 和 JSON-RPC 是什么JSON-RPC 数据包的**“运输方式”**stdin/stdout 或 HTTPSSE (Server-Sent Events) 是一种“单向常连”技术。它允许服务器在建立连接后像源源不断的流水一样主动把数据推送到客户端Agent而不需要客户端反复询问sse与普通http区别流式Streaming是数据传输方式SSE 是实现流式的一种技术判断是否是MCP 客户端 (如支持mcp的Agent)判定一个服务器是否为 MCP 服务器的“三个标准”MCP 服务器的作用MCP 是 Agent 和外部工具之间的桥梁/调度中心。如果工具在 MCP 上直接调用函数。如果工具在外部服务通过 HTTP / gRPC / RPC 调用为什么 MCP 可以统一调用工具统一注册所有工具在 MCP 上注册包含名字、接口类型、参数格式统一调度agent根据function_call按照json_rpc格式发送到mcp服务器mcp服务器自动路由到对应工具统一返回把工具执行结果按照json_rpc的格式返回agentagent解析后把工具执行结果封装成 rolefunction 消息返回 LLM安全与权限控制MCP 可以限制哪些工具可调用api/json-prcagent怎么知道有哪些工具llm怎么知道有哪些工具agent调用工具怎么知道要输入哪些内容哪些参数Agent 是通过工具的参数 schema LLM 语义理解自动推断并填充工具参数的-------------------- | User | ------------------- | v ------------------- | Agent Controller | ← 负责循环控制、判断是否继续执行 ------------------- | ---------------- | Planner / Task | ← 负责拆解复杂任务、生成子任务 ---------------- | --------v-------- | LLM | ← **实际决策者** | (Reasoning) | - 决定下一步做什么 | | - 选择调用哪个工具 | | - 填充工具参数 ---------------- | ---------v--------- | Tool Executor | ← Agent执行层负责调用工具 ------------------ | ---------v--------- | Tools | ← 外部能力API / DB / Python / File System ------------------ | ---------v--------- | Observation | ← 工具返回结果回传给 LLM ------------------ | ---------v--------- | Memory | ← Agent状态管理 | (short/long-term) | 记录上下文、中间结果 ------------------- | --------------------- 循环回 LLM例子{ name: get_weather, description: Get weather information for a city, parameters: { type: object, properties: { city: { type: string, description: city name }, unit: { type: string, enum: [celsius, fahrenheit] } }, required: [city] } }Agent 怎么知道发给哪个 LLM 给agent配置哪个llm就用哪个Agent 发送请求到llm,需要 配置LLM 的哪些参数一般来说Agent 通过 API 调用 LLM需要提供 三个核心参数参数作用Provider / Base URL就是模型运行在哪个服务器的地址它通常指 LLM 提供商的 API 接口地址告诉 Agent 要把请求发送到哪台服务器让 LLM 收到任务API Key / Access Token身份验证用来让 Agent 授权访问 LLM 类似客户端要验证有资格访问服务器Model ID告诉服务器用哪个模型来处理请求比如gpt-5.2、claude-instant-1可选参数max_tokens、temperature、top_p 等生成控制参数Provider / Base URLAPI Key / Access TokenModel ID举例messages 列表 Prompt只是格式化成多条消息。system role 设定模型身份/行为规则。user role 用户输入/任务。assistant role 也是 Promptmessages的一部分模型自身的角色主要用于记录 LLM 自己之前的输出让模型理解上下文、保持连贯性怎么实现工具才能让agent调用def mcp_executor(tool_call: dict) - dict: tool_name tool_call[tool_name] params tool_call.get(parameters, {}) # 找到对应工具 tool next(t for t in mcp_tools if t[name] tool_name) # 执行函数 try: result tool[func](**params) return { tool_name: tool_name, status: success, result: result } except Exception as e: return { tool_name: tool_name, status: error, result: str(e) }tool/list 返回的内容是 Schema 还是工具列表以及谁生成 SchemAPIApplication Programming Interface应用程序接口API 的核心就是提供一套调用规则让程序可以互相“说话”,互相调用不管它们是在同一台电脑上还是分布在不同的电脑、甚至不同城市的服务器上。程序之间沟通的接口和规则广义理解任何一种程序可以调用另一个程序功能的方式本地调用Local API / 同一台机器同一台电脑上的不同程序本质上就像远程调用IPCInter-Process Communication进程间通信(1) 管道Pipe / Named Pipe一条只能本地用的单向通信通道就像把两个程序用一条水管连起来stdio 是程序的默认 I/O 接口管道是操作系统提供的通信通道它可以把一个程序的 stdio 接到另一个程序的 stdio 上从而实现数据传递(2) 共享内存Shared Memory消息队列Message Queue套接字Socket / Unix Socket就是 程序之间开通的一条“电话线”通过它发送和接收数据网络通信 vs 本地通信远程调用Remote APIAPI 是怎么实现的实现 API本质是定义一套“规则和通道”告诉其他程序如何访问你的功能。API 技术栈就是3层模型API设计(接口长什么样)-通信协议-数据格式api 设计接口长什么样。 REST、GraphQL、RPC是 三种 API 思想REST、GraphQL、RPC是 三种 API 思想。规定 API 应该“怎么组织和表达功能”但不规定具体技术细节每种 API 思想对应的实现技术/框架API 思想实现技术 / 框架示例特点RESTDjango REST FrameworkPython、Flask-RESTfulPython、Spring BootJava、Express.jsNode.js用框架定义资源和操作接口快速生成 REST APIGraphQLApollo ServerJavaScript、GraphenePython、Hasura自动生成 GraphQL API、AbsintheElixir提供 GraphQL 查询解析和执行能力实现客户端指定字段的数据请求RPCgRPCGoogle、ThriftApache、JSON-RPC、XML-RPC提供远程函数调用接口实现跨语言的服务调用API 的第一层接口定义Interface需要什么参数返回什么数据等第二层通信协议数据怎么在网络上传输第三层数据格式数据怎么表示API 思想实现技术 / 框架通信协议数据格式RESTDjango REST Framework、Flask-RESTful、Spring Boot、Express.jsHTTP / HTTPSJSON / XML / YAMLGraphQLApollo Server、Graphene、Hasura、AbsintheHTTP / HTTPSPOST 请求、WebSocket订阅、 SSEJSONRPCgRPC、Thrift、JSON-RPC、XML-RPCgRPC → HTTP/2Thrift → TCP/HTTPJSON-RPC / XML-RPC → HTTP/HTTPSUnix Socket / 管道ProtobufgRPC、自定义二进制Thrift、JSON / XML协议Protocol是什么规定了两台计算机或程序之间如何通信、交换信息。怎么传输通信协议按传输方式分为非流失传输和流失传输分类协议示例特点非流式 / 请求-响应HTTP / HTTPS、JSON-RPC / XML-RPC客户端发请求服务器返回响应通信一次结束流式 / 持久连接WebSocket、SSE、gRPC流模式建立连接后可以持续传输数据多次收发协议通信方向持久连接用途特点WebSocket双向客户端 ↔ 服务器是连接建立后一直保持聊天、游戏、实时通知客户端和服务器都可以随时发送消息建立连接后数据传输开销小SSE单向服务器 → 客户端是服务器可以持续推送实时通知、新闻更新客户端只能接收服务器推送不能直接发数据基于 HTTP三种 API 思想实现的api的调用方式API 思想API 长什么样调用方式示例核心特点REST资源 URLGET /users/123操作资源GraphQL查询语句query { user(id:123){name} }查询数据结构RPC函数调用getUser(123)调用远程函数API 交互标准OpenAI 定义了一套如何与大模型对话的接口规范如 /v1/chat/completionsOpenAI 定义了一种“程序怎么调用大模型”的 API 写法后来几乎所有模型公司都照着做了。所以它被称为 事实标准de facto standard。messages 里的角色有哪些systemuserassistantFunction Call 的本质{role: assistant, content: 我需要查天气。, function_call: {name: get_weather, arguments: { \city\: \Beijing\ }}},role: function可选 → 标识这是工具调用结果工具调用的结果在 OpenAI 的 Chat API 里会以 role “function” 的消息形式返回给模型模型再根据这个内容生成回答。工具调用的结果不是直接文本而是 rolefunction 的消息传回给模型模型再把它整理成用户可读的回答。什么是 SDK Software Development Kit开发工具包什么叫 “兼容 OpenAI API”使用与 OpenAI 兼容的 API 格式什么意思OpenAI API标准Model模型参数“调用 API 不一定要写 URL”URL 只是使用 HTTP REST 思想定义的api的调用方式为什么“写了 URL 就是调用 API”。属于http rest思想设计api后的调用方式为什么 OpenAI SDK 换 URL 就调用别的 APIhttp rest形式调用api时换url就是换api了。还可以使用openai sdk是因为别人的api的参数和返回结果与openai一样OpenAI 在 2023 年之后给 AI 应用开发定义了一套“事实标准de-facto standard”OpenAI 推动的“工具调用Tool Calling / Function Calling接口标准”Function Calling / Tool Calling 标准JSON Schema 作为工具参数标准JSON Schema 在工程里的三个典型用途。很多人第一次看到会懵因为它其实是在说 Schema 一种机器可读的接口说明书SDK Software Development Kit软件开发工具包Chat Message 协议OpenAI 还定义了 对话消息结构标准后来 Anthropic 提出了 Model Context Protocol (MCP)。把 OpenAI Function Calling 的思想扩展成跨工具协议OpenAI后来又加了一条标准模型输出必须符合指定 JSON Schema现在 AI 行业的架构是什么样AI应用层 (ChatGPT / AI产品 / AI SaaS) ↓ Agent框架层 (LangChain / LlamaIndex / CrewAI / AutoGPT) ↓ Agent协议层 (OpenAI Tool Calling / JSON Schema) ↓ 模型层 (OpenAI / Anthropic / Google / Meta) ↓ 算力层 (Nvidia GPU / 云计算)目前 AI 行业形成了 两套标准体系Agent框架典型功能工具调用记忆任务规划等Agent 框架里的 任务规划Planning和任务拆分Task Decomposition核心其实不是复杂算法而是 让 LLM 先当“规划器”再当“执行器”任务拆分实现方式Prompt-based Planning最常见任务拆分实现方式ReAct最经典 Agent 方法。Thought → Action → Observation在 Thought → Action → ObservationReAct 模式 里Thought LLM 内部生成的意图 / 下一步计划Action 调用工具rolefunctionObservation 工具执行结果返回模型rolefunctionObservation 就是把 Action 执行后的结果返回给 LLM让 LLM“看到”这个结果再继续推理。Agent 框架里的真实代码结构任务拆分方式Plan-and-Execute更稳定

相关文章:

llm+agent,使用与 OpenAI 兼容的 API 格式

文章目录LLM Agent 是什么信息流LLM 本身是无状态的处理器和Agent 的“记忆“,怎么理解网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。如果真的“只有 LLM”会怎样?agent 记忆agent短期记忆和长期记忆agent记忆存在哪里举例&#xff1a…...

基于YOLOv8的车牌识别与定位系统

本项目基于 YOLOv8 实现车牌检测与定位,提供完整的训练流程与可视化桌面应用,支持图片、视频、摄像头多种输入方式的实时检测。 一、项目技术栈 类别技术深度学习框架PyTorch、Ultralytics YOLOv8计算机视觉OpenCV桌面 UIPyQt6数据处理NumPy、Pandas可视…...

通信:(8) 网络层(第3层):IPv4 与路由器

1. 网络层的功能1.1 异构网络互联核心问题不同物理网络(以太网、WiFi、ATM等)如何相互通信解决方案IP协议作为统一的网络层协议,屏蔽底层差异关键设备路由器(Router):连接不同网络,进行协议转换…...

[连载] C++ 零基础入门-3.C++变量与数据类型 一步一步实战

作者:咏方舟-长江支流 日期:2026-02-27 《C 零基础到底层实战-全套31篇 体系化教程》,从环境安装→基础语法 → 面向对象 → 多线程 → 智能指针 → 鸿蒙原生开发,一套打通:桌面开发 / 嵌入式 / 鸿蒙 / 高薪底层开发…...

数据模型是数据库系统设计与实现的理论基础,其核心知识点可系统归纳如下

数据模型是数据库系统设计与实现的理论基础,其核心知识点可系统归纳如下:基本概念 数据模型是对现实世界数据特征的抽象描述,是连接用户需求与数据库实现的桥梁。按抽象层次分为三类: • 概念数据模型(如E-R模型&#…...

【AI】Mac 安装 OpenClaw 及接入飞书教程

一、安装 Nodejs(必须) 因为 OpenClaw 至少需要运行在 node22 版本环境,因此需要先安装 node 环境 step1:下载并安装 nvm:curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash step2&…...

企业 AI 智能体:从 Demo 到规模化落地的技术架构与工程实践

在大模型技术普及的今天,几乎所有企业的技术团队都尝试过搭建 AI 智能体:从简单的客服问答机器人,到能处理基础业务的 AI 助手,大多都能快速做出一个效果亮眼的 Demo。但现实是,超过 90% 的 AI 智能体,最终…...

企业AI智能体进入“人机协作”新阶段:数字员工与人类员工的“混合劳动力”时代

在大模型技术普及的今天,几乎所有企业的技术团队都尝试过搭建 AI 智能体:从简单的客服问答机器人,到能处理基础业务的 AI 助手,大多都能快速做出一个效果亮眼的 Demo。但现实是,超过 90% 的 AI 智能体,最终…...

图片优化新策略:WebP/AVIF格式与懒加载的融合应用

图片优化新策略:WebP/AVIF格式与懒加载的融合应用 在当今数字化时代,图片作为网页内容的重要组成部分,不仅丰富了用户的视觉体验,也直接关系到网页的加载速度和整体性能。随着网络技术的不断进步,图片优化技术也在持续…...

软件无线电:重塑无线通信的未来

引言 在当今这个信息爆炸的时代,无线通信技术如同空气般无处不在,支撑着我们的移动互联网、物联网、广播、导航等方方面面。传统的无线通信设备,其功能通常由专用的硬件电路实现,一旦设计完成,其工作频段、调制方式、通信协议等核心特性就基本固定,难以更改。这种“刚性…...

[操作系统篇|学习笔记]初识操作系统

一.操作系统概念与功能1.1 定义操作系统(Operating System,OS)是管理和控制计算机软硬件资源的系统软件,是用户与计算机硬件之间的接口,也是其他应用软件运行的基础。简单来说就是三点:1.操作系统是系统资源…...

The RAG Process: Retrieval-Augmented Generation Step-by-Step

文章目录RAG简介流程【分片】【索引】向量embedding向量数据库【召回】【重排】【生成】总结流程代码环境准备RAG 参考视频 BV1wc3izUEUb 简介 检索增强生成 RAG(Retrieval-Augmented Generation,检索增强生成)是一种把信息检索&#xff0…...

RL学习记录(更新中)

主要课程来源:小电视赵老师课程:主要针对强化学习原理(实践和编程较少) 目录 前言 第一章 基础概念 第二章 贝尔曼公式 第三章 贝尔曼最优公式 第四章 值迭代与策略迭代 前言 贝尔曼公式:一句话总结&#xff0…...

Spring面试题 01

目录 1. 谈谈你对 AOP 的理解? 2. 谈谈你对 IOC 的理解? 3. 解释下 Spring 支持的几种 Bean 的作用域? 4. 简述 Spring 中的事务的实现方式? 5. 了解 Spring 中的事务传播机制吗? 6. 说一说 Spring 事务的底层实…...

没有学不会的义务之动态内存管理

为什么要有动态内存管理:让程序员自己可以申请和释放空间(数组等开辟空间的大小是固定的)内存中的不同区malloc函数功能:向内存的堆区申请一块连续可用的空间,并返回指向这块空间的起始地址。1.如果开辟成功&#xff0…...

sql注入之sql基本语法

(持续更新)学习网站推荐:www.w3school.com.cnsqlzoo.net一、SELECT查询语句SELECT 列 FROM 表 WHERE 条件;SQL SELECT 语法SELECT 列名称 FROM 表名称以及:SELECT * FROM 表名称1.SELECT population FROM world WHERE name Germany主要目的是输出人口&a…...

字节码优化、存储布局与那次成功的“代码混淆”

# 字节码优化、存储布局与那次成功的“代码混淆”## 引言:从一个小想法到一场技术革命故事要从几年前的一个午后说起。当时我们团队正在为一个嵌入式设备开发一套领域特定语言(DSL)。设备资源有限,我们需要一个轻量级的虚拟机来执…...

简中互联网“四大恶人”批判:一种数字生存境况的技术社会学分析

內容來自知乎:https://www.zhihu.com/question/660840540 # 简中互联网“四大恶人”批判:一种数字生存境况的技术社会学分析 ## 引言:被围困的数字日常 2026年的今天,当你打开手机准备查询地铁线路,仅仅因为起身时轻…...

RAG——RAG生成(大模型)

目录 一、前提 二、大模型发展 三、大模型原理 四、RAG 中如何选择大模型 本文来源:极客时间vip课程笔记 注:后续技术类文章会同步到我的公众号里,搜索公众号 小志的博客 感兴趣的读友可以去找来看看。 一、前提 RAG 的本质是通过为大模型提供外部知识来增强其理解和回答领…...

IntelliJ IDEA 4个必改配置:主题字体+代码提示+免费AI插件,让你的开发体验起飞

IntelliJ IDEA 被誉为 Java 开发最好用的工具,但默认配置不一定适合每个人。默认的暗黑主题在白天长时间开发容易眼疲劳;默认字体偏小,盯着看一会儿眼睛就酸;默认的代码提示严格区分大小写,输入小写就找不到大写开头的…...

HelloWorld的前世今生:用IntelliJ IDEA编写人生第一个Java程序

为什么全世界所有编程语言的第一个例子,都是输出“Hello World”?这个传统来自C语言之父丹尼斯里奇的经典著作《C程序设计语言》。在这本书中,第一个示例程序就是输出“Hello World”。由于C语言是绝大多数编程语言的鼻祖,后续Jav…...

计算机毕业设计springboot高校体育竞赛管理系统 基于SpringBoot的高校体育赛事综合服务平台设计与实现

计算机毕业设计springboot高校体育竞赛管理系统48825p75(配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。随着高校体育事业的蓬勃发展和校园文化建设需求的不断提升,传…...

计算机毕业设计springboot就业岗位推荐系统 基于SpringBoot的智能职位匹配平台设计与实现

计算机毕业设计springboot就业岗位推荐系统a6nq8o76(配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。随着数字化转型的深入推进,人力资源市场正经历从传统招聘模式向智…...

2025年智能座舱交互革命:从语音助手到多模态AI中枢

1. 告别“人工智障”:为什么你的车载语音助手总在关键时刻掉链子? 不知道你有没有过这样的经历:开车时想调低空调温度,对着车机喊了好几声“你好,XX”,它要么没反应,要么答非所问,最…...

R 4.5量化回测合规红线预警:证监会《证券期货业回测系统技术规范》V2.3落地后,这7类代码将被认定为无效回测

第一章:R 4.5量化回测合规性总览R 4.5 版本在统计计算与金融建模领域引入了多项增强机制,尤其在回测框架的可审计性、随机数生成确定性、时间序列对齐一致性及浮点运算精度控制方面,显著提升了量化策略回测结果的合规可信度。监管机构&#x…...

STEP3-VL-10B部署案例:边缘计算节点部署10B模型实现离线多模态推理

STEP3-VL-10B部署案例:边缘计算节点部署10B模型实现离线多模态推理 1. 引言 想象一下,你正在一个网络信号不稳定的野外现场,或者在一个对数据安全要求极高的企业内部,需要快速分析一张复杂的工程图纸,或者理解一段带…...

如何用Dify在24小时内完成传统需2周的人工评估闭环?——金融客服场景下LLM-as-a-judge SLO达标实践白皮书

第一章:LLM-as-a-judge在金融客服评估中的范式革命传统金融客服质量评估长期依赖人工抽检、规则引擎与预设话术匹配,存在覆盖率低、主观性强、反馈滞后等结构性瓶颈。大语言模型作为裁判(LLM-as-a-judge)的引入,正推动…...

通义千问3-Reranker-0.6B实战案例:直播带货话术与商品信息匹配

通义千问3-Reranker-0.6B实战案例:直播带货话术与商品信息匹配 1. 直播带货的痛点与解决方案 直播带货现在火得不得了,但有个问题一直困扰着主播和运营团队:说的话和卖的商品经常对不上。你可能也遇到过这种情况——主播说得天花乱坠&#…...

Emilia数据集:6种语言10万小时语音生成技术的突破与应用

1. Emilia数据集:一个改变游戏规则的多语言语音宝库 如果你最近在关注语音合成(TTS)或者语音生成领域,那你大概率已经听过“Emilia”这个名字了。它就像一个突然出现在舞台中央的超级新星,让整个圈子都兴奋了起来。简…...

第7章:Docker network网络管理_(网络驱动类型)

第7章:Docker network网络管理(网络驱动类型) 在现代容器化应用部署中,Docker网络管理是确保服务可靠通信的关键环节。除了基础的网络连接操作外,Docker提供了一系列高级网络功能,能够满足复杂场景下的网络需求。本文将解析三个高级网络管理命令: docker network connec…...