当前位置: 首页 > article >正文

基于LangChain的RAG与Agent智能体开发 - OpenAI库介绍和使用

大家好我是小锋老师最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑感谢大家支持。本课程主要介绍和讲解RAGLangChain简介接入通义千万大模型Ollama简介以及安装和使用OpenAI库介绍和使用以及最重要的基于LangChain实现RAG与Agent智能体开发技术。视频教程课件源码打包下载链接https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg提取码0000基于LangChain的RAG与Agent智能体开发 - OpenAI库介绍和使用1openai库简介OpenAI库是OpenAI官方提供的Python SDK软件开发工具包它就像一座桥梁让开发者可以用Python代码方便地调用OpenAI的各种强大AI模型如GPT系列当然阿里百炼云平台也兼容支持OpenAI库。2openai库安装openai 库安装pip install openai -i https://pypi.tuna.tsinghua.edu.cn/simple --trusted-host pypi.tuna.tsinghua.edu.cn3实例化openai客户端client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, )api_key指定模型服务商提供的api秘钥base_url指定模型服务商提供的API接入地址4创建会话from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages )ChatCompletion参数model: 模型选择gpt-4, gpt-3.5-turbo等messages: 对话消息列表system: 系统设定user: 用户输入assistant: AI回复temperature: 温度0-2越低越确定越高越随机max_tokens: 最大生成token数top_p: 核采样0-1替代temperaturefrequency_penalty: 频率惩罚-2到2presence_penalty: 存在惩罚-2到25会话返回结果我们通过debug打印completion对象我们发现通过级联对象调用能够获取到大模型返回的文本内容print(completion.choices[0].message.content)大模型返回内容如下D:\python_pro\RAGPro1\venv\Scripts\python.exe D:\python_pro\RAGPro1\openAI测试\test.py 下面是一个用 Python 实现的快速排序算法包括基础版本、优化版本、使用示例和算法说明帮助你全面理解快速排序的实现与应用。 ​ --- ​ ## 1. 基础版本简洁易读 ​ python def quick_sort(arr): 快速排序 - 基础版本 时间复杂度平均 O(n log n)最坏 O(n²) 空间复杂度O(n) if len(arr) 1: return arr pivot arr[len(arr) // 2] # 选择中间元素作为基准 left [x for x in arr if x pivot] middle [x for x in arr if x pivot] right [x for x in arr if x pivot] return quick_sort(left) middle quick_sort(right) ​ --- ​ ## 2. 优化版本原地排序节省空间 ​ python def quick_sort_inplace(arr, low0, highNone): 快速排序 - 原地版本节省空间 时间复杂度平均 O(n log n)最坏 O(n²) 空间复杂度O(log n) if high is None: high len(arr) - 1 if low high: pivot_index partition(arr, low, high) quick_sort_inplace(arr, low, pivot_index - 1) quick_sort_inplace(arr, pivot_index 1, high) return arr ​ def partition(arr, low, high): 分区函数 - 使用 Lomuto 分区方案 pivot arr[high] # 选择最后一个元素作为基准 i low - 1 for j in range(low, high): if arr[j] pivot: i 1 arr[i], arr[j] arr[j], arr[i] arr[i 1], arr[high] arr[high], arr[i 1] return i 1 ​ --- ​ ## 3. 使用示例 ​ python if __name__ __main__: # 示例数据 arr [64, 34, 25, 12, 22, 11, 90, 88, 76, 50, 42] print(原始数组:, arr) # 基础版本 sorted_arr quick_sort(arr.copy()) print(快速排序结果:, sorted_arr) # 原地版本 arr_inplace arr.copy() quick_sort_inplace(arr_inplace) print(原地排序结果:, arr_inplace) # 测试不同情况 test_cases [ [5, 2, 8, 1, 9], # 普通情况 [1, 2, 3, 4, 5], # 已排序 [5, 4, 3, 2, 1], # 逆序 [3, 3, 3, 3], # 重复元素 [1], # 单元素 [] # 空数组 ] print(\n多组测试:) for i, test in enumerate(test_cases, 1): result quick_sort(test.copy()) print(f测试{i}: {test} - {result}) ​ --- ​ ## 4. 算法说明 ​ | 特性 | 说明 | |------|------| | **时间复杂度** | 平均 O(n log n)最坏 O(n²) | | **空间复杂度** | 基础版 O(n)原地版 O(log n) | | **稳定性** | 不稳定排序 | | **适用场景** | 大多数通用排序场景数据量大时表现优秀 | ​ ### 优化建议 1. **三数取中法**选择首、中、尾三个元素的中值作为基准避免最坏情况 2. **小数组使用插入排序**当子数组较小时如长度 10改用插入排序更高效 3. **尾递归优化**减少递归调用栈深度 ​ --- ​ ## 5. 带优化的完整版本推荐生产使用 ​ python def quick_sort_optimized(arr, low0, highNone): 快速排序 - 生产优化版本 if high is None: high len(arr) - 1 # 小数组使用插入排序 if high - low 10: insertion_sort(arr, low, high) return arr if low high: pivot_index partition_optimized(arr, low, high) quick_sort_optimized(arr, low, pivot_index - 1) quick_sort_optimized(arr, pivot_index 1, high) return arr ​ def partition_optimized(arr, low, high): 三数取中法选择基准 mid (low high) // 2 # 三数取中 if arr[low] arr[mid]: arr[low], arr[mid] arr[mid], arr[low] if arr[low] arr[high]: arr[low], arr[high] arr[high], arr[low] if arr[mid] arr[high]: arr[mid], arr[high] arr[high], arr[mid] arr[mid], arr[high - 1] arr[high - 1], arr[mid] pivot arr[high - 1] i low j high - 1 while True: i 1 while arr[i] pivot: i 1 j - 1 while arr[j] pivot: j - 1 if i j: break arr[i], arr[j] arr[j], arr[i] arr[i], arr[high - 1] arr[high - 1], arr[i] return i ​ def insertion_sort(arr, low, high): 插入排序辅助函数 for i in range(low 1, high 1): key arr[i] j i - 1 while j low and arr[j] key: arr[j 1] arr[j] j - 1 arr[j 1] key ​ --- ​ 选择哪个版本取决于你的需求 - **学习理解**使用基础版本 - **节省内存**使用原地版本 - **生产环境**使用优化版本 ​ 有任何问题欢迎继续询问 ​ Process finished with exit code 06流式输出前面的默认输出是整体输出延迟很大效果很不好我们企业级开发肯定是那种像流水一样的一段一段输出也就是流式输出形式。那我们来实现下流式输出吧首先create方法里要设置下 streamTrue开启流式输出我们通过遍历completion对象得到chunk块chunk.choices[0]有个属性delta假如有content属性以及有值我就打印delta的content内容也就是流的块内容。下面是官方参考实现代码from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, streamTrue # 开启流式输出 ) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content print(delta.content, end, flushTrue)运行结果就是一段一段的流式输出了。7开启思考打印带思考扩展的流式输出大模型默认是不开启思考的如果我们需要开启回答的时候带上上大模型的思考过程。我们可以设置 extra_body{enable_thinking: True}打印大模型思考内容delta对象有个reasoning_content属性我们需要判断是否有这个属性以及是否有值然后才打印以及为了输出效果好我们定义一个is_answering 是否进入回复阶段属性默认设置Flase,只有当第一次出现正式回复内容的时候才设置成True。官方参考代码实现from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, extra_body{enable_thinking: True}, # 开启思考 streamTrue # 开启流式输出 ) is_answering False # 是否进入回复阶段 print(\n * 20 思考过程 * 20) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, reasoning_content) and delta.reasoning_content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(delta.reasoning_content, end, flushTrue) if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(\n * 20 完整回复 * 20) is_answering True print(delta.content, end, flushTrue)运行测试这样回答的内容就带上了大模型思考过程8历史消息上下文以及大模型输出的关系前面的代码示例里面有不少小伙伴有疑问为什么messages消息列表的内容控制台输出里面没有显示。这里有个重要的概念就是这里的messages是历史消息历史消息仅用于为模型提供上下文它们不会出现在输出中。输出只包含模型基于上下文生成的新内容。下面我们来搞一个稍微复杂点历史消息。from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个计算方面的大师}, {role: user, content: 张三有5块钱}, {role: assistant, content: 是的}, {role: user, content: 李四有3块钱张三给了李四1块钱}, {role: assistant, content: 是的}, {role: user, content: 现在张三和李四分别有多少钱} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, extra_body{enable_thinking: True}, # 开启思考 streamTrue # 开启流式输出 ) is_answering False # 是否进入回复阶段 print(\n * 20 思考过程 * 20) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, reasoning_content) and delta.reasoning_content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(delta.reasoning_content, end, flushTrue) if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(\n * 20 完整回复 * 20) is_answering True print(delta.content, end, flushTrue)​我们来看下运行结果思考过程还是比较丰富的。D:\python_pro\RAGPro1\venv\Scripts\python.exe D:\python_pro\RAGPro1\openAI测试\历史记录构成模型上下文.py 思考过程 Thinking Process: 1. **Analyze the Request:** * Role: Master of Calculation (计算方面的大师). * Input Sequence: 1. User: 张三有 5 块钱 (Zhang San has 5 yuan). 2. Assistant: 是的 (Yes). 3. User: 李四有 3 块钱张三给了李四 1 块钱 (Li Si has 3 yuan, Zhang San gave Li Si 1 yuan). 4. Assistant: 是的 (Yes). 5. User: 现在张三和李四分别有多少钱 (How much money do Zhang San and Li Si have now?) * Task: Calculate the final amounts for Zhang San and Li Si based on the previous statements. 2. **Track the State:** * Initial State: * Zhang San (张三) 5 yuan. * Li Si (李四) 3 yuan. * Action: * Zhang San gives Li Si 1 yuan (张三给了李四 1 块钱). * Calculation: * Zhang Sans new amount Initial - Given 5 - 1 4 yuan. * Li Sis new amount Initial Received 3 1 4 yuan. 3. **Formulate the Output:** * Need to answer clearly as a Master of Calculation. * State the final amounts for both individuals. * Keep it concise and accurate. 4. **Drafting the Response:** * 张三5 - 1 4 块。 * 李四3 1 4 块。 * Final answer: 张三有 4 块钱李四有 4 块钱。 5. **Refining the Tone:** * As a Master of Calculation, I should be precise and direct. * 经过计算现在张三有 4 块钱李四有 4 块钱。 (After calculation, now Zhang San has 4 yuan, Li Si has 4 yuan.) 6. **Final Check:** * Does it match the context? Yes. * Is the math correct? 5-14, 314. Yes. * Is the language natural? Yes. 7. **Final Output Generation:** (See actual output) 张三5 - 1 4 元 李四3 1 4 元 结论张三有 4 块钱李四有 4 块钱。 Lets make it slightly more conversational but precise. 现在张三有 4 块钱李四有 4 块钱。 Or show the calculation process briefly to uphold the Master persona. 张三剩余5 - 1 4 块 李四现有3 1 4 块 Lets go with a clear statement. 现在张三有 4 块钱李四有 4 块钱。 (Simple and direct) Maybe add the calculation logic for clarity. 张三5 - 1 4 块 李四3 1 4 块 Okay, I will provide the direct answer with a brief breakdown. *Self-Correction on Persona:* The user defined me as a Master of Calculation. I should sound confident and accurate. Response: 经过计算 张三5 - 1 4 块钱 李四3 1 4 块钱 所以现在张三有 4 块钱李四有 4 块钱。 Wait, I should check if there are any trick questions hidden. 张三有 5 块钱 - Confirmed. 李四有 3 块钱张三给了李四 1 块钱 - Confirmed. No tricks detected. Just simple arithmetic. Final decision: 现在张三有 4 块钱李四有 4 块钱。 (Optionally show the math) 张三5 - 1 4 李四3 1 4 Lets combine for clarity. 现在张三有 4 块钱李四有 4 块钱。 (Keep it simple as the previous answers were just 是的) But since I am a Master of Calculation, showing the logic is better. Revised Plan: 1. State Zhang Sans amount. 2. State Li Sis amount. 3. Keep it concise. Output: 现在张三有 4 块钱李四有 4 块钱。 (Calculation: 5-14, 314) Lets write it naturally. 现在张三有 4 块钱李四有 4 块钱。 Maybe add 计算如下 No, just give the answer directly but accurately. Okay, final version: 现在张三有 4 块钱李四有 4 块钱。 (Because 5-14, 314) Lets just output the result clearly. 现在张三有 4 块钱李四有 4 块钱。 Wait, I should maintain the persona. 经计算张三 4 块李四 4 块。 Lets be polite and clear. 现在张三有 4 块钱李四有 4 块钱。 Okay, I will write: 现在张三有 4 块钱李四有 4 块钱。 (张三5 - 1 4李四3 1 4) Actually, looking at the conversation flow, the previous answers were very short (是的). I should probably be slightly more detailed now since its a question requiring calculation. 现在张三有 4 块钱李四有 4 块钱。 is good. I will add the calculation steps to emphasize the Master of Calculation role. 张三5 - 1 4 块 李四3 1 4 块 合计两人各有 4 块。 Okay, ready to generate.cltr 完整回复 经过计算 * **张三**原有 5 块给出 1 块剩余 **4 块**5 - 1 4。 * **李四**原有 3 块收到 1 块现有 **4 块**3 1 4。 所以现在张三有 4 块钱李四有 4 块钱。 Process finished with exit code 0

相关文章:

基于LangChain的RAG与Agent智能体开发 - OpenAI库介绍和使用

大家好,我是小锋老师,最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑,感谢大家支持。本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型,Ollama简介以及安装和使用&#x…...

数据库安全最后一公里:金仓SQL防火墙如何填平开发留下的注入坑

数据库安全最后一公里:金仓SQL防火墙如何填平开发留下的注入坑 摘要:在数字化转型浪潮中,数据已成为企业的核心资产。然而SQL注入作为数据库安全的头号顽疾,即便开发团队严守预编译、输入过滤等规范,遗留代码、第三方…...

AOP相关面试题

什么是AOP?答:AOP面向切面编程。核心思想:将横切关注点从核心逻辑中分离出来,形成一个一个切面横切关注点:多个类或对象中的公共行为(如:日志记录、事务管理、接口限流、接口幂等性)…...

SQL SERVER 登陆错误:18456

前几天开发让我去解决一个sql server express****的连接问题,由于只是他们自己用用,所以就没有由我们安装商业版。 报错如下我先去check****了下,发现数据库正常开启。**但是打开Network Configuration,**发现网络都没有开启,于是…...

【码道初阶-Hot100】LeetCode 438 + 567 对照详解:一套滑动窗口模板,彻底讲透“固定长度窗口 + 计数数组 + count维护”

LeetCode 438 567 对照详解:一套滑动窗口模板,彻底讲透“固定长度窗口 计数数组 count维护” 摘要 很多人把 LeetCode 438 和 567 当成两道题分开记,其实完全没必要。它们本质上是同一个固定长度滑动窗口模型,真正难点只在一个…...

大数据隐私保护与数据价值平衡:企业如何做到合规又能用好数据?

大数据隐私保护与价值平衡:企业的“合规用数”实战指南 引言:企业的“数据两难”——锁起来可惜,用起来怕违规 你有没有遇到过这样的困境? 为了符合《个人信息保护法》,把用户数据严严实实地锁在数据库里,看…...

「龙虾」来了!OpenClaw如何掀起AI智能体革命

「龙虾」爆火:OpenClaw的崛起与狂欢 OpenClaw生态系统 #mermaid-svg-CLPHlB6DV7TSkxDt{font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}@keyframes edge-animation-frame{from{stroke-dashoffset:0;}}@keyframes dash{t…...

大模型AI-入门-发展历程-机器学习

部分内容可能来自网络或者由AI生成。 如有雷同,纯属巧合,仅供学习参考之用。机器学习(ML) 机器学习是人工智能的核心分支,其本质是让计算机系统从数据中自动学习规律,并用于预测或决策。一、机器学习的三大…...

【AI Agent 学习笔记 task1】Day2:初识智能体

【AI Agent 学习笔记 task1】Day2:初识智能体 上一篇:【AI Agent 学习笔记】Hello-Agents 环境配置与首个 Agent 实战 一、Agent 的本质 Agent(智能体) 大模型(大脑) 工具(手脚) 控…...

一次生成、无限复用:易元 AI 双引擎重构生产逻辑,AI 混剪素材复用让内容越做越省

内容生产的真正效率,从来不取决于单条视频做得有多快,而在于单次投入能产生多少次价值、一次制作能支撑多少次产出,这就是素材复用的核心价值。在传统模式下普通的混剪工具只是机械拼接、单次产出,无法实现素材沉淀与循环使用&…...

5-11字典合并

输入用字符串表示两个字典,输出合并后的字典。字典的键用一个字母或数字表示。注意:1和‘1’是不同的关键字!输入格式:在第一行中输入第一个字典字符串;在第二行中输入第二个字典字符串。输出格式:在一行中输出合并的字典&#xf…...

86745238

86745238...

AI 模型推理系统的延迟优化方案

AI模型推理系统的延迟优化方案 随着AI技术的广泛应用,模型推理延迟成为影响用户体验和系统性能的关键因素。无论是实时语音识别、自动驾驶,还是在线推荐系统,高延迟都会降低响应速度,甚至导致业务损失。如何优化AI推理系统的延迟…...

LeetCode 3070. 元素和小于等于 k 的子矩阵数目

LeetCode 3070. 元素和小于等于 k 的子矩阵数目 题目描述 给你一个大小为 m x n 的整数矩阵 grid 和一个整数 k。你需要找出 grid 中所有以左上角 (0,0) 为起始点的子矩阵,并统计这些子矩阵中元素和不超过 k 的个数。 注意:子矩阵必须包含 (0,0) 这个格子…...

Java的虚拟线程调度与平台线程池在IO密集型应用中的扩展性

Java虚拟线程与平台线程池在IO密集型应用中的扩展性探索 随着微服务与云原生架构的普及,IO密集型应用对高并发的需求日益增长。传统Java线程模型因平台线程(OS线程)的创建成本高、上下文切换开销大等问题,难以实现高效扩展。Java…...

都跟掉电保护有关,但不是一个东西

以前会误以为 BKP 就等于 RTC因为它们有三个很容易让人混淆的共同点:它们都和“掉电保持”有关它们都在备份域里访问它们时常常都要先打开相关权限于是很容易脑子里变成:既然都和掉电保持有关,那它们是不是一回事其实不是。这就像&#xff1a…...

虚拟实验室:物理化学实验的计算机模拟

虚拟实验室:物理化学实验的计算机模拟 在传统物理化学实验中,学生常受限于设备、安全风险或时间成本,而虚拟实验室通过计算机模拟技术,为学习者提供了全新的实验体验。虚拟实验室不仅能高度还原真实实验场景,还能突破…...

Python的__init_subclass__类方法在框架开发中的钩子机制与扩展点设计

Python作为一门灵活的动态语言,其元编程能力为框架设计提供了强大的扩展性。在众多魔法方法中,__init_subclass__作为Python 3.6引入的类方法,正逐渐成为框架开发中实现钩子机制与扩展点设计的秘密武器。这个特殊方法允许父类在子类创建时进行…...

去中心化应用(DApp)开发全流程

去中心化应用(DApp)开发全流程:从构思到落地 随着区块链技术的普及,去中心化应用(DApp)成为开发者关注的热点。与传统应用不同,DApp运行在区块链网络上,具备透明、不可篡改和去中心…...

Rust Trait 对象动态分派原理

Rust Trait对象动态分派原理探析 Rust作为一门注重安全与性能的系统级语言,其多态实现机制一直是开发者关注的焦点。Trait对象通过动态分派(Dynamic Dispatch)实现了运行时的多态行为,这种机制在需要灵活处理不同类型但共享相同行…...

SSH隧道实战:内网穿透与端口转发

SSH隧道实战:内网穿透与端口转发 在当今数字化时代,远程访问内网资源成为许多企业和开发者的刚需。由于防火墙或NAT的限制,直接访问内网服务往往困难重重。SSH隧道作为一种安全高效的解决方案,能够轻松实现内网穿透和端口转发&am…...

如何设计一个安全的 RESTful API?

如何设计一个安全的 RESTful API?在当今数字化时代,RESTful API 已成为不同系统间数据交互的核心桥梁。随着网络攻击手段的日益复杂,API 的安全性已成为开发者不可忽视的挑战。一个设计不当的 API 可能导致数据泄露、服务瘫痪甚至法律风险。那…...

计算机视觉算法优化

计算机视觉算法优化:让机器更懂世界 计算机视觉作为人工智能的核心领域之一,正深刻改变着我们的生活。从人脸识别到自动驾驶,从医疗影像分析到工业质检,计算机视觉算法的性能直接决定了应用的准确性和效率。随着数据量的爆炸式增…...

STM32:UART串口通信

将一个设备的数据传送到另一个设备时,需要根据情况的不同,制定通信的规则,即通信协议。通信双方按照协议规则进行数据收发。常用的通信协议有名称引脚双工时钟电平设备USARTTX\RX全双工异步单端点对点I2CSCL\SDA半双工同步单端多设备SPISCLK\…...

# WebHID:用 JavaScript 实现浏览器与物理设备的“直连”交互在传统Web 开发中,浏览器对硬件设备的

WebHID:用 JavaScript 实现浏览器与物理设备的“直连”交互 在传统 Web 开发中,浏览器对硬件设备的支持始终受限于安全策略。但随着 WebHID API 的出现,开发者终于可以绕过复杂的驱动层和中间件,直接通过标准 JavaScript 与 USB H…...

Java synchronized 锁优化与偏向锁分析

Java synchronized锁优化与偏向锁分析 在多线程编程中,synchronized关键字是Java实现线程同步的核心机制。早期的synchronized实现因性能问题饱受诟病,直到JVM引入了锁优化技术,尤其是偏向锁的引入,显著提升了并发性能。本文将深…...

Python的__getattr__业务对象

Python魔法方法揭秘:灵活操控属性的__getattr__在Python的面向对象编程中,__getattr__是一个强大而神秘的魔法方法,它像一位隐藏在幕后的属性调度员。当常规属性访问失败时,这个方法就会被自动触发,为开发者提供了处理…...

软件工程软件开发生命周期瀑布模型与敏捷模型的比较

软件工程中的开发模型选择直接影响项目成败,瀑布模型与敏捷模型作为两种经典方法论,分别代表了结构化与灵活性的两极。随着数字化转型加速,开发团队常面临模型选择的困惑。本文将从核心维度对比二者的差异,帮助读者理解不同场景下…...

wythoff构造(正十二面体)

...

C++ 析构函数的隐藏风险

C析构函数的隐藏风险:那些容易被忽视的陷阱 在C编程中,析构函数作为对象生命周期的终结者,负责释放资源、清理内存等重要任务。其看似简单的设计背后却暗藏诸多风险,稍有不慎便可能导致内存泄漏、未定义行为甚至程序崩溃。本文将…...