当前位置: 首页 > article >正文

基于多智能体与RAG的DeepResearchAgent:AI驱动的自动化文献综述实践

1. 项目概述一个能帮你“读论文”的智能研究助手最近在折腾AI Agent领域发现了一个挺有意思的开源项目——SkyworkAI的DeepResearchAgent。简单来说这玩意儿就是一个能帮你做深度文献调研的智能体。想象一下你拿到一个全新的研究课题比如“大语言模型在蛋白质结构预测中的应用”面对海量的论文是不是感觉无从下手DeepResearchAgent要解决的就是这个痛点。它不是一个简单的搜索引擎而是一个能理解你的问题、自动规划搜索策略、阅读并总结多篇论文最后给你生成一份结构化研究报告的“AI研究实习生”。这个项目特别适合两类人一是学术研究者尤其是研究生和青年学者能帮你快速了解一个陌生领域的研究脉络二是技术从业者比如想快速跟进某个前沿技术方向的工程师或产品经理。我自己在试用后感觉它最大的价值在于将“信息检索”升级为“知识整合”。它不仅能帮你找到论文还能帮你“读懂”论文之间的联系提炼出核心观点、方法对比和未来趋势这比单纯看一堆摘要高效太多了。接下来我就结合自己的使用和代码分析拆解一下这个智能体是怎么工作的以及如何把它用起来。2. 核心架构与工作流拆解DeepResearchAgent的设计思路很清晰它模拟了一个人类研究员进行文献调研的标准流程。整个系统可以看作一个由多个“专家”智能体协作的流水线。2.1 多智能体协作框架项目采用了目前主流的“规划-执行-反思”的Agent框架但针对研究任务做了深度定制。整个流程通常包含以下几个核心智能体任务规划与分解智能体这是大脑。当你输入一个宽泛的研究主题如“Explainable AI for medical diagnosis”后这个智能体首先会分析主题将其分解成一系列更具体、可执行的研究子问题。例如它可能会分解为“什么是医疗诊断中的可解释AI”、“当前主流的可解释性方法有哪些如LIME, SHAP, 注意力机制”、“这些方法在医疗影像、电子病历等不同场景下的应用效果如何”、“面临的主要挑战和未来方向是什么”。这一步至关重要它决定了后续搜索和阅读的精度。学术搜索引擎智能体这是手脚。它根据分解出的子问题自动生成精准的搜索关键词并调用集成的学术数据库API如Google Scholar, Semantic Scholar, arXiv等进行论文检索。它不仅仅是简单搜索还会根据相关性、引用数、发表年份等初步筛选出最值得深入阅读的候选论文列表。论文阅读与摘要智能体这是核心的“阅读者”。对于筛选出的每篇关键论文这个智能体会下载或获取其全文或摘要然后利用大语言模型LLM的能力进行深度阅读。它不只是提取摘要而是会尝试理解论文的核心贡献、方法论、实验设置、关键结果以及局限性。这部分通常涉及RAG检索增强生成技术将长文本切分、向量化然后针对特定问题从文中检索最相关的片段进行总结。综合分析与报告生成智能体这是“写作者”。它接收所有子问题的调研结果即多篇论文的阅读摘要进行交叉对比、归纳整合。它的任务是撰写最终的研究报告梳理该领域的发展脉络对比不同技术路线的优劣总结已达成共识的结论和存在的争议并指出未来的潜在研究方向。报告的结构通常是问题定义、文献综述、方法对比、总结展望。注意在实际的代码实现中这些“智能体”可能并非完全独立的模块而是一系列精心设计的提示词Prompt和函数调用Function Calling的组合引导同一个LLM如GPT-4, Claude 3, 或开源模型按步骤扮演不同角色完成不同任务。2.2 关键技术栈与工具集成这个项目的“肌肉”由以下几部分组成大语言模型LLM作为所有智能体的“思考引擎”。项目通常支持配置多种LLM后端包括OpenAI API、Anthropic Claude API以及开源的Llama、Qwen等本地模型。模型的选择直接决定了调研的深度和报告的质量。对于复杂任务GPT-4或Claude 3 Opus这类顶级模型效果显著更好。向量数据库与RAG为了高效处理长篇论文项目会用到向量数据库如Chroma, Weaviate, Pinecone来存储论文片段的嵌入向量。当需要回答具体问题时通过语义相似度检索最相关的文本块提供给LLM生成答案这比让LLM直接记忆全文要可靠和高效得多。学术搜索工具集成了诸如SerpAPI用于Google Scholar、Semantic Scholar API、arXiv API等。这些工具提供了程序化访问学术资源的通道。有些实现还会利用Bing Search API或Google Custom Search JSON API作为补充。编排框架为了管理复杂的工作流项目可能会基于LangChain、LlamaIndex或AutoGen这类Agent框架构建。这些框架提供了链Chain、代理Agent、工具Tool等高级抽象让多步骤的规划与执行流程更容易搭建和调试。我个人的一个实操心得是在部署或使用前一定要仔细检查config.yaml或环境变量中的API密钥配置。特别是学术搜索API很多都有每日调用次数限制不当的配置可能导致流程中途失败。建议先在子问题上进行小规模测试确认整个流水线畅通后再运行完整的调研任务。3. 从零开始部署与配置实战假设你是一个有一定Python基础的研究者想在本地或自己的服务器上运行DeepResearchAgent。下面是一个典型的搭建步骤。3.1 环境准备与依赖安装首先你需要一个Python环境建议3.9以上。克隆项目代码是第一步git clone https://github.com/SkyworkAI/DeepResearchAgent.git cd DeepResearchAgent接下来安装依赖。强烈建议使用虚拟环境如venv或conda来隔离包管理。# 创建并激活虚拟环境 python -m venv .venv source .venv/bin/activate # Linux/macOS # .venv\Scripts\activate # Windows # 安装项目依赖 pip install -r requirements.txt踩坑记录requirements.txt里列出的包版本可能互相冲突或者与你的Python版本不兼容。如果安装失败可以尝试先安装基础包如openai,langchain再根据错误信息逐个安装或调整版本。有时项目更新快文档可能滞后直接看最近关闭的Issue常常能找到解决方案。3.2 核心API密钥配置这是最关键的一步。DeepResearchAgent需要多个外部服务的API密钥才能工作。你需要准备一个.env文件在项目根目录或者直接设置环境变量。通常需要的密钥包括LLM提供商如OPENAI_API_KEY如果你用GPT系列或ANTHROPIC_API_KEY如果用Claude。如果你打算使用开源模型本地部署如通过Ollama则需要配置对应的模型端点。搜索引擎如SERPAPI_API_KEY用于Google Scholar搜索或者GOOGLE_API_KEY和GOOGLE_CSE_ID用于Google可编程搜索引擎。向量数据库如果你使用云服务如Pinecone则需要PINECONE_API_KEY。如果使用本地Chroma则无需配置。学术数据库如SEMANTIC_SCHOLAR_API_KEY非必须但有的话可以获取更结构化的论文信息。一个简化的.env文件示例OPENAI_API_KEYsk-your-openai-key-here SERPAPI_API_KEYyour-serpapi-key-here # 如果使用本地模型例如通过Ollama # LLM_BASE_URLhttp://localhost:11434/v1 # LLM_MODELllama3.1:8b配置要点SERPAPI的免费额度有限复杂调研任务可能很快用完。对于重度用户可以考虑使用Google Custom Search JSON API虽然配置稍复杂但性价比可能更高。此外OpenAI API的调用成本也需要关注一次深度调研可能涉及数十次甚至上百次LLM调用花费数美元是可能的。3.3 运行你的第一次深度调研配置好后运行就相对简单了。项目通常会提供一个主入口脚本比如main.py或research_agent.py。你需要通过命令行参数或配置文件指定研究主题。python main.py --query 近期在多模态大语言模型视频理解方面的进展与挑战或者如果项目提供了交互式界面如Gradio或Streamlit你可以运行python app.py然后在浏览器中打开本地地址如http://127.0.0.1:7860在Web界面中输入你的研究问题。首次运行观察控制台输出仔细观察控制台日志。一个设计良好的Agent会输出它的“思考过程”比如“正在规划研究子问题...”、“正在搜索关于‘video understanding multimodal llm’的论文...”、“正在阅读和总结论文《Video-LLaMA: ...》...”。这有助于你理解其工作状态和排查问题。结果输出最终的报告通常会以Markdown或PDF格式保存在outputs/或results/目录下。打开看看报告的结构是否清晰引用的论文是否相关总结是否准确时间与成本一次完整的深度调研可能需要10分钟到半小时不等取决于论文数量、模型速度和你使用的API。同时留意API的调用费用。4. 核心模块深度解析与调优要让DeepResearchAgent发挥最大效能不能只停留在“能用”还得“好用”。这就需要深入其核心模块根据你的需求进行调优。4.1 任务规划与分解的Prompt工程任务分解的质量直接决定最终报告的广度和深度。这个模块的核心是一个给LLM的提示词Prompt。我们可以查看项目中的planning_prompt.txt或相关代码来理解其设计。一个典型的规划Prompt会包含以下要素角色定义“你是一个资深的AI研究科学家擅长进行系统的文献综述。”任务指令“请将以下研究主题分解为3-5个关键的子研究问题。这些问题应该全面覆盖该主题的核心方面并且每个问题都应该是可以通过检索和阅读学术论文来独立回答的。”输出格式“请以JSON列表格式输出每个元素是一个子问题字符串。”示例提供一两个例子让LLM学会如何分解调优技巧控制粒度如果你想要一个非常深入的报告可以指示LLM分解得更细如5-7个子问题。如果只想快速概览则减少到2-3个。强调角度在Prompt中指定你关心的角度。例如加入“请特别关注工业界应用落地面临的挑战”或“请从算法创新和数据集发展两个主线进行分解”。迭代修正如果自动分解的结果不理想不要犹豫手动修改或合并这些子问题然后将修正后的列表作为输入传给后续模块。Agent应该是你的助手而不是不可控的黑盒。4.2 论文检索策略与过滤技巧搜索智能体的目标是找到最相关、最权威的文献。这里有几个关键参数可以调整搜索关键词生成Agent会根据子问题自动生成关键词。但你可以通过配置干预例如是否包含“review”、“survey”等词来寻找综述文章是否限定年份如“2020以后”是否包含特定的技术术语变体。来源选择配置优先检索哪些数据库。arXiv适合最新的预印本Semantic Scholar的元数据更规范Google Scholar覆盖面最广但可能包含非学术内容。通常建议组合使用。排序与过滤在代码中可以设置过滤条件比如只保留引用数超过某个阈值、发表在特定顶会NeurIPS, ICML, CVPR或期刊上的论文。这对于确保调研质量非常重要。我的经验是对于非常新兴的领域发布不到半年arXiv可能是主要来源。对于成熟领域优先高引用的经典论文和近年的顶级会议论文。可以在配置文件中增加一个“必读论文列表”强制Agent去阅读你指定的几篇核心文献以确保报告的基础扎实。4.3 论文阅读与总结的深度控制这是最消耗Token也最费钱的环节也是决定报告质量的核心。如何让LLM从一篇长论文中提取出有效信息全文处理 vs 摘要处理下载和处理PDF全文需要OCR如果非可复制文本和复杂的解析成本高、速度慢。一个折中方案是优先处理arXiv上可获取的PDF/LaTeX源或者直接使用论文的官方摘要和引言、结论部分。对于关键论文再启动全文深度阅读模式。分块与检索策略如果处理全文需要将文本切分成有重叠的块如每块1000词。块的大小和重叠度会影响检索效果。太小可能丢失上下文太大则检索不精准。常见的策略是先让LLM根据标题和摘要生成几个关键问题然后针对每个问题去全文检索最相关的几个文本块进行回答最后合成对该论文的总结。总结模板为LLM设计一个固定的总结模板可以确保输出信息结构一致便于后续对比。模板可以包括论文标题、作者、发表出处、核心问题、主要方法、关键结果、创新点、局限性、与你研究主题的相关性。一个实用的技巧在配置中设置一个“最大处理论文数”参数。对于每个子问题限制检索和阅读的论文数量比如5-10篇。这可以有效控制成本和时间避免陷入信息海洋。优先处理相关性最高、质量最高的论文。4.4 报告生成与结构化输出最终的报告生成智能体需要将所有零散的信息整合成一个连贯的故事。这里的挑战在于避免报告成为“流水账”或“摘要堆砌”。叙事逻辑好的报告应该有引言、主体和结论。主体部分可以按时间线、按技术流派、按待解决问题等维度来组织。在给LLM的Prompt中需要明确指定这种结构。对比与综合Prompt需要强调查找不同论文观点之间的联系、对比和冲突。例如“比较论文A和论文B在解决XX问题上方法的异同”、“指出在多篇论文中被共同验证的结论”、“总结当前研究中存在的主要分歧点”。批判性思维鼓励LLM不仅总结还要进行适度评价。例如“指出该方法在现实应用中可能存在的瓶颈”、“基于现有趋势推测未来可能的研究方向”。引用格式确保生成的报告包含规范的引用如作者年份并能在文末生成参考文献列表。这需要阅读智能体在总结时就必须提取出准确的引用信息。你可以通过修改报告生成Prompt来获得不同风格的输出比如更偏向工程实现的“技术评估报告”或者更偏向学术的“文献综述”。5. 高级用法与个性化定制当你熟悉了基本流程后可以尝试一些高级玩法让这个Agent更贴合你的专属工作流。5.1 集成私有知识库与内部文档对于企业或实验室最大的价值可能是让Agent不仅能调研公开论文还能结合内部的技术报告、项目文档、实验数据进行研究。这可以通过扩展其“知识源”来实现。步骤一文档预处理将你的内部文档Word, PDF, PPT, 网页通过类似的流程进行文本提取、分块和向量化存入一个独立的向量数据库索引。步骤二工具扩展修改Agent的“工具集”Toolset新增一个“内部知识库检索”工具。当Agent在规划或回答问题时这个工具可以被调用从内部库中检索相关信息。步骤三在Prompt中引导在任务规划或报告生成Prompt中加入指令“在进行分析时请同时考虑我们内部知识库可通过特定工具查询中的相关信息和数据。”这样生成的报告就能融合公开领域的前沿进展和内部的实践经验价值倍增。5.2 构建持续追踪与自动更新机制研究不是一锤子买卖。对于一个你长期关注的领域你希望Agent能定期帮你追踪最新进展。定时任务你可以利用cronLinux或Task SchedulerWindows设置每周或每月自动运行一次Agent研究主题可以固定为“过去一个月内关于[你的领域]的最新进展”。增量更新修改检索策略将搜索时间范围限定在上次运行之后。对于新找到的论文进行阅读和总结。报告对比与摘要让Agent不仅生成新报告还能与上一期的报告进行对比提炼出“本期新增的重要发现”、“观点有何演进”、“是否有颠覆性论文出现”并生成一个简短的更新摘要邮件或消息发送给你。这相当于为你配备了一个不知疲倦的领域情报员。5.3 模型选型与成本优化策略使用GPT-4 API进行深度调研效果虽好但成本也高。为了平衡效果与成本可以采用混合策略分层模型调用对于任务规划、最终报告合成这类需要强推理和创造性的任务使用GPT-4或Claude 3。对于单篇论文摘要、信息提取这类相对模式化的任务使用更便宜但能力足够的模型如GPT-3.5 Turbo、Claude Haiku甚至本地部署的Qwen-72B-Chat、Llama 3 70B等。本地模型部署如果调研任务不涉及极其前沿的、需要最强模型理解力的内容完全可以使用开源模型。通过Ollama或vLLM等工具在本地或内网服务器部署一个70B参数级别的模型一次性投入硬件成本后后续调用几乎零成本。虽然单次响应时间可能稍长但对于自动化任务来说可以接受。缓存机制对于相同的查询或论文其结果应该被缓存。避免重复处理同一篇论文可以节省大量成本和时间。检查项目是否支持缓存或者自己实现一个简单的基于查询哈希的磁盘缓存。6. 常见问题、故障排查与效果评估在实际使用中你肯定会遇到各种问题。下面是一些典型场景和解决思路。6.1 运行流程中的常见报错问题现象可能原因排查与解决思路ModuleNotFoundError或ImportError依赖包未安装或版本冲突。1. 确认虚拟环境已激活。2. 运行pip install -r requirements.txt --upgrade。3. 根据报错信息单独安装缺失的包。APIError(如OpenAI, SerpAPI)API密钥错误、额度不足、服务超时或频率限制。1. 检查.env文件中的密钥是否正确有无多余空格。2. 登录对应API提供商控制台检查额度与用量。3. 在代码中增加重试机制和指数退避策略。检索结果为空或完全不相关搜索关键词生成不佳或搜索引擎API受限。1. 查看日志中Agent实际使用的搜索关键词是什么判断是否偏离主题。2. 尝试在规划Prompt中要求生成更具体、包含同义词的关键词。3. 切换到备用的搜索引擎如从SerpAPI换到Google CSE。LLM生成内容混乱或跑题Prompt设计有歧义或模型温度temperature参数过高。1. 检查并优化关键Prompt规划、总结、报告生成确保指令清晰无歧义。2. 将temperature参数调低如设为0.1或0.2增加生成内容的确定性。3. 在Prompt中提供更明确的输出格式示例。处理速度极慢处理论文全文、模型响应慢、网络延迟。1. 限制并行处理论文的数量。2. 优先使用论文摘要而非全文进行分析。3. 如用本地模型检查硬件资源GPU内存是否充足。6.2 输出结果的质量问题与优化即使流程能跑通报告质量也可能不尽如人意。以下是一些典型问题及提升方法问题报告泛泛而谈缺乏深度洞察。原因LLM只是机械地总结了每篇论文的摘要没有进行真正的对比、分析和批判性思考。优化强化报告生成Prompt。加入如下指令“请不要仅仅罗列每篇论文的摘要。请分析不同工作之间的传承关系、方法论的演进逻辑、实验结果的相互印证或矛盾之处。请指出哪些结论是领域内普遍接受的哪些还存在争议。请基于现有工作的局限性提出未来可能突破的方向。”问题遗漏了领域内公认的关键论文或里程碑工作。原因搜索策略过于偏向近期论文或者关键词未能覆盖经典工作的表述。优化1. 在搜索配置中不要将时间范围限制得太近。2. 在规划阶段可以手动为Agent增加一个子问题“请找出该领域奠基性的或被广泛引用的经典论文即使发表时间较早”。3. 使用“必读论文列表”功能。问题报告中存在事实性错误或“幻觉”。原因LLM在总结长论文时可能误解细节或捏造了不存在的信息。优化1. 在论文总结Prompt中严格要求“所有陈述必须基于提供的论文文本不得编造”。2. 启用RAG的“引用溯源”功能让LLM在输出时注明其结论来源于原文的哪个片段第几页或哪个章节。这样你可以快速核对。3. 对于关键数据和方法描述进行人工抽样核查。6.3 效果评估如何判断一份AI生成的综述是否靠谱完全依赖AI是不行的你需要具备评估其输出质量的能力。可以从以下几个维度快速审视覆盖性报告是否涵盖了该主题的主要方面是否提到了你知道的几篇核心论文如果连你都知道的关键工作都漏了那覆盖性就有问题。准确性随机挑选报告中的几个具体陈述特别是技术细节、数据结果找到对应的原文进行核对。看是否存在曲解或夸大。逻辑性报告的行文是否有清晰的逻辑主线是简单的堆砌还是能看出技术发展的脉络、不同学派的分歧结论是否由前面的分析自然得出新颖性报告是否提炼出了你之前未注意到的观点或联系这是AI价值的高阶体现。最有效的方法是将AI报告作为“初稿”。用它来快速建立认知框架发现你可能忽略的文献和视角。然后以这份报告为地图亲自去精读它推荐的关键论文修正其中的错误补充你的见解。这样人机协作的效率才是最高的。最后我想分享一点个人体会DeepResearchAgent这类工具本质上是一个“信息放大器”和“思维脚手架”。它无法替代研究者深度的思考和批判性分析但它能极大地压缩文献搜集和初步整理的时间让你能把宝贵的精力集中在真正的创新点上。刚开始使用时不要期望它生成完美无缺的综述而是把它当作一个不知疲倦、阅读速度极快的初级研究员它的产出需要你这个“导师”来审核、指导和修正。随着你不断调优Prompt和工作流它会越来越懂你的需求最终成为你科研道路上得力的数字伙伴。

相关文章:

基于多智能体与RAG的DeepResearchAgent:AI驱动的自动化文献综述实践

1. 项目概述:一个能帮你“读论文”的智能研究助手最近在折腾AI Agent领域,发现了一个挺有意思的开源项目——SkyworkAI的DeepResearchAgent。简单来说,这玩意儿就是一个能帮你做深度文献调研的智能体。想象一下,你拿到一个全新的研…...

豆包AI与DeepSeek的区别

豆包AI和DeepSeek都是当前流行的中文大型语言模型(LLM)助手,但它们由不同公司开发,在背景、功能、性能和适用场景上存在差异。1. 开发者背景与起源豆包AI:由字节跳动公司(抖音、今日头条的母公司&#xff0…...

HTML头部元信息避坑指南技术文章大纲

HTML头部元信息避坑指南技术文章大纲核心元标签的常见错误与正确用法<meta charset>未声明或声明位置错误导致乱码 <title>过长或重复影响SEO与用户体验 <meta name"viewport">缺失导致移动端适配问题 <meta http-equiv>误用引发兼容性问题S…...

离婚案件数据分析系统设计:基于玉溪案例的抚养权判决预测模型

一、技术背景与问题定义作为一名在玉溪从事法律科技工作的从业者&#xff0c;我这些年一直在思考一个问题&#xff1a;抚养权判决的结果能不能被预测&#xff1f;说实话&#xff0c;传统上大家觉得这是不可能的——毕竟法官要综合考量那么多因素&#xff1a;孩子的意愿、父母双…...

数据科学实战:OSEMN框架详解与案例分析

1. 数据科学家如何系统化解决问题&#xff1a;OSEMN框架详解 作为一名从业多年的数据科学顾问&#xff0c;我经常被问到"数据科学家到底如何思考问题"。事实上&#xff0c;这个领域最宝贵的不是掌握多少算法&#xff0c;而是系统化解决问题的框架思维。今天我要分享的…...

信息熵:从概念到机器学习应用的全面解析

1. 信息熵的概念起源与核心定义信息熵这个概念最早由克劳德香农在1948年的论文《通信的数学理论》中提出&#xff0c;当时是为了解决通信系统中的信息量化问题。但有趣的是&#xff0c;这个概念其实脱胎于物理学中的热力学熵。香农在思考如何度量信息时&#xff0c;向著名数学家…...

Arduino与VL53L0X激光测距传感器开发指南

1. 项目概述&#xff1a;基于Arduino的ToF激光测距传感器应用开发激光测距技术在现代智能设备中扮演着越来越重要的角色。作为该技术的代表产品&#xff0c;ST VL53L0X ToF传感器凭借其毫米级精度、2米测距范围和940nm不可见激光等特性&#xff0c;被广泛应用于机器人避障、工业…...

stm32f103zet6使用STM32CubeMx移植原子fsmc(有讲解)

本次使用原子stm32f103zet64.3寸mcu屏&#xff0c;学了原子的例程发现虽然是hal库开发但是并没有使用stm32cubemx开发而是纯库函数&#xff0c;我之前的工程都是基于cubemx所以我想进行适配&#xff0c;现在把移植过程罗列如下&#xff0c;有问题可以评论区问我&#xff0c;stm…...

网络故障定位工具怎么搭配:Wireshark、tcpdump、监控平台各自该在什么时候上场?

网络故障定位工具怎么搭配&#xff1a;Wireshark、tcpdump、监控平台各自该在什么时候上场&#xff1f; 很多团队的网络排障效率低&#xff0c;不是因为没人干活&#xff0c;而是因为工具顺序用反了&#xff1a;明明问题还在“先确认范围”的阶段&#xff0c;就急着抓全量包&am…...

10华夏之光永存:盘古大模型开源登顶世界顶级——全系列终章总结与未来使命(第十篇)

10华夏之光永存&#xff1a;盘古大模型开源登顶世界顶级——全系列终章总结与未来使命&#xff08;第十篇&#xff09; 标签&#xff1a;#华为盘古 #终章总结 #国产AI自立自强 #华夏本源AI #世界顶级大模型开源全闭环 免责声明 本文为盘古大模型十篇系列开源连载最终篇、第十篇…...

TensorFlow.data API高效数据管道构建与优化实战

1. 理解TensorFlow.data API的核心价值第一次接触TensorFlow.data API时&#xff0c;我正面临一个图像分类项目的性能瓶颈。传统的数据加载方式导致GPU利用率长期低于30%&#xff0c;直到发现这个被低估的工具包。TensorFlow.data不是简单的数据读取接口&#xff0c;而是构建高…...

【限时开放】Docker AI Toolkit 2026企业版Beta通道关闭倒计时:3天内未注册将永久失去GPU调度优先权与联邦学习插件

更多请点击&#xff1a; https://intelliparadigm.com 第一章&#xff1a;Docker AI Toolkit 2026企业版Beta通道关闭前的关键认知 Docker AI Toolkit 2026企业版Beta通道将于2024年11月30日23:59&#xff08;UTC8&#xff09;正式终止注册与镜像拉取权限。所有未完成许可证绑…...

仿真一:与门运算

一、题目 用 Multisim 来仿真一个三输入与门&#xff0c;与门的输入波形为二进制数从 0∼70\sim70∼7 循环。 二、仿真内容 利用 Multisim 中的字生成器&#xff08;可从右侧快捷栏找到&#xff09;&#xff0c;来输入波形为二进制从 0∼70\sim70∼7 的循环。双击字发生器即可进…...

刚开始做 GEO:最容易做错的动作与起步误区拆解

GEO 起步阶段&#xff0c;不建议先按“发多少内容、测多少平台、截多少图”做验收。 更合适的第一轮目标是&#xff1a;固定一批真实问题&#xff0c;检查公开材料能不能被 AI 正确组织成回答。讲不准&#xff0c;先修材料&#xff1b;讲得泛&#xff0c;先补边界&#xff1b;讲…...

基于Golang的全流式AI语音后端:为智能硬件打造低延迟对话系统

1. 项目概述&#xff1a;一个为智能硬件量身打造的全流式AI语音后端 如果你正在折腾ESP32、树莓派这类物联网设备&#xff0c;想给它加上一个能听会说、还能“思考”的AI大脑&#xff0c;那你很可能已经踩过不少坑了。市面上的AI服务要么延迟高得没法实时对话&#xff0c;要么就…...

网球发球动作及发力指导

网球发球动作及发力指导 本文将系统讲解网球发球(Serve)的完整技术动作与发力原理,适用于初中级球员自学或教练教学参考。 目录 发球概述与技术分类 准备姿势与握拍 发球动作四阶段分解 动力链与发力原理 平击、上旋与切削发球 常见错误与纠正方法 针对性训练计划 核心要点总…...

通俗数学3-电和磁

背景 我很不想抄公式&#xff0c;今早看到一个文https://www.zhihu.com/question/21912411/answer/2031438531613209361 把散和旋讲得太好&#xff0c;借着这个电磁的推导&#xff0c;正好正经做一个在微元的电磁数学建模。在光和电合成中https://blog.csdn.net/wjcroom/artic…...

补题记录4

牛客周赛140 &#xff1a;C,D,E,F北华大学第十三届大学生程序设计竞赛(同步赛)&#xff08;重现赛&#xff09;B...

SMU 周报

L3-1 City 不 City - SMU 26 Spring 天梯赛7&#xff08;补题 20&#xff09;牛客周赛140Educational Codeforces Round 189 (Rated for Div. 2) D阿坝校赛 I...

唐山正规的纤维水泥板制造厂名声

在建筑材料领域&#xff0c;纤维水泥板凭借其诸多优势得到了广泛应用。唐山作为一个有着深厚工业底蕴的城市&#xff0c;拥有不少正规的纤维水泥板制造厂&#xff0c;并且在业界享有良好的名声。下面我们就一同来探寻唐山纤维水泥板制造厂良好名声背后的秘密。一、产品质量过硬…...

国内外主流 RPA 厂商全解析:生态能力、合规治理、落地对比

RPA&#xff08;机器人流程自动化&#xff09;正在从“效率工具”升级为“自动化底座”。它不再只是替代人工做重复操作&#xff0c;而是逐步成为企业构建智能体、打通系统流程、沉淀自动化能力的基础设施。随着 AI 与大模型能力成熟&#xff0c;RPA 的边界正在被重新定义&…...

leetcode hot100 64. 最小路径和 medium 递归优化

dfs(i, j) 从 (0,0) 走到 (i,j) 的最小路径和 到 (i, j) 只能 &#xff1a;向下 or 向右 dfs(i, j) min(dfs(i 1, j), // 向下dfs(i, j 1) // 向右) grid[i][j]时间复杂度&#xff1a;O(m n) 空间复杂度&#xff1a;O(m n) class Solution:def minPathSum(self, …...

ai软件开发如何节约烧钱的token202604-插件

一、VS Code 主流 AI 插件&#xff08;省 Token 能力清单&#xff09;1. GitHub Copilot / Copilot Chat&#xff08;最主流&#xff09;省 Token 能力&#xff1a;上下文限制&#xff1a;设置 maxFileContext 为 3–5&#xff0c;只传当前文件 少量依赖&#xff0c;输入 Toke…...

行政区划变更(撤县设市、撤县设区、省直管县、新设地级市)数据1993-2023年

01、数据介绍撤县设市是撤销县&#xff0c;设立县级市&#xff0c;行政制度与县级相同&#xff0c;将县改为县级市。地级市管辖的县撤县设市后&#xff0c;一般有省级直辖管理&#xff0c;为省直管市&#xff0c;实际仍由地级市代管。2022年《政府工作报告》中国务院提出&#…...

打卡第十四天 | 18.四数之和

题目链接&#xff1a;https://leetcode.cn/problems/4sum/ 视频讲解&#xff1a;https://www.bilibili.com/video/BV1DS4y147US题目描述&#xff1a;解题思路和三数之和类似…...

哪个AIGC检测工具数值准?2026年最新查AI率工具盘点测评拆解!

2026年答辩季临近&#xff0c;AIGC检测已经成为大多数高校论文审核的标配流程。不管你有没有用过A论文&#xff0c;学校都可能会查一遍AI率。很多同学的第一反应就是&#xff1a;ai率查重要多少钱&#xff1f;有没有能免费查AI率的工具&#xff1f; 有免费的aigc检测工具&…...

HEIF Utility:Windows用户的终极HEIF图片处理解决方案

HEIF Utility&#xff1a;Windows用户的终极HEIF图片处理解决方案 【免费下载链接】HEIF-Utility HEIF Utility - View/Convert Apple HEIF images on Windows. 项目地址: https://gitcode.com/gh_mirrors/he/HEIF-Utility 你是否曾经遇到过这样的困扰&#xff1f;从iPh…...

3分钟搞定Blender UV混乱?这个插件让你告别手动调整的烦恼!

3分钟搞定Blender UV混乱&#xff1f;这个插件让你告别手动调整的烦恼&#xff01; 【免费下载链接】UvSquares Blender addon for reshaping UV quad selection into a grid. 项目地址: https://gitcode.com/gh_mirrors/uv/UvSquares 你是否曾在Blender中为杂乱的UV布局…...

Bulk Crap Uninstaller:智能化批量卸载工具的彻底清理革命

Bulk Crap Uninstaller&#xff1a;智能化批量卸载工具的彻底清理革命 【免费下载链接】Bulk-Crap-Uninstaller Remove large amounts of unwanted applications quickly. 项目地址: https://gitcode.com/gh_mirrors/bu/Bulk-Crap-Uninstaller 你的Windows系统是否正在被…...

KMS_VL_ALL_AIO:Windows和Office批量激活的终极解决方案

KMS_VL_ALL_AIO&#xff1a;Windows和Office批量激活的终极解决方案 【免费下载链接】KMS_VL_ALL_AIO Smart Activation Script 项目地址: https://gitcode.com/gh_mirrors/km/KMS_VL_ALL_AIO KMS_VL_ALL_AIO 是一款功能强大的智能激活脚本&#xff0c;专为解决Windows操…...